我有点怀疑
首先:可以创建的文件流(可读流或可写流)的最大数量是否有限制?
Like a [...[readable, writable]] streams array of n files
第二:在操作系统中打开的最大文件数是否仅适用于在“打开”上使用流事件时?
Like in linux by default is 1024 per process
第三:这是否直接影响在“开放”同时事件上存在的最大流数?
Like 1024 simultaneous 'open' stream event per process
如果有人有关于它的信息,谢谢你分享它和你的时间,为任何错误
我有一个运行在Linux上的Python2.7脚本,它与IOError: [Errno 24] Too many open files崩溃。当我运行lsof -p <script_pid>来查看脚本打开了哪些文件时,我看到越来越多的anon_inode文件。
此脚本首先从S3下载文件,使用进行并发。然后,它使用处理多线程下载的文件。我隔离地运行了多线程代码,发现它只在包含以下事件的猴子修补程序时才泄漏文件描述符:
patcher.monkey_patch(thread=False)
任何关于我如何解决这一问题的想法都将不胜感激!