通过CrawlerProcess运行多个抓取爬行器会导致spider_idle信号失败的原因是由于CrawlerProcess内部的调度机制问题导致的。
CrawlerProcess是Scrapy框架中的一个类,用于管理和调度多个爬行器。当通过CrawlerProcess运行多个抓取爬行器时,每个爬行器都会被分配一个独立的工作进程进行运行。但是,由于CrawlerProcess内部的调度机制存在一些问题,导致在多个爬行器同时运行时,spider_idle信号无法正常触发。
spider_idle信号是Scrapy框架中的一个信号,用于通知爬行器在没有待处理的请求时进入空闲状态。在正常情况下,当一个爬行器完成了所有的请求处理,并且没有新的请求需要处理时,就会触发spider_idle信号。
然而,通过CrawlerProcess运行多个爬行器时,由于调度机制的问题,爬行器之间的工作进程会发生竞争,导致部分爬行器无法正确接收到spider_idle信号。这可能是因为某个工作进程在完成请求处理后,立即开始处理下一个爬行器的请求,而没有等待其他爬行器的请求处理完毕。
要解决这个问题,可以尝试以下方法:
总结:通过CrawlerProcess运行多个抓取爬行器会导致spider_idle信号失败的原因是由于CrawlerProcess内部的调度机制问题导致的。解决方法可以是使用单个爬行器运行时不使用CrawlerProcess,将每个爬行器的工作进程数设置为1,或者调整爬行器的运行顺序,确保每个爬行器都能够正常接收到spider_idle信号。
没有搜到相关的沙龙
领取专属 10元无门槛券
手把手带您无忧上云