scrapy的Pipeline类不可使用yield
2022/1/22 23:34:20
本文主要是介绍scrapy的Pipeline类不可使用yield,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
scrapy的Pipeline类不可使用yield
业务需求在scarpy的pipeline中处理过数据后再生成新的Request。但如果直接再Pipeline类的process_item方法中yield Request,会导致爬虫执行直接跳过该Pipeline,连个报错都看不到。
排查发现是yield使该函数的调用的返回值成为生成器,而不是相关返回值。
如何在Pipeline中生成新请求
1.参照MediaPipeline。
之所以我会先入为主地认为可以在Pipeline中直接yield出新Request,是因为之前使用过官方自带的MediaPipeline,改写其get_media_requests的方法,并可最终yield出新Request。
则仿照MediaPipeline的process_item完成业务逻辑即可。
MediaPipeline的process_item的主要逻辑如下
def process_item(self, item, spider): info = self.spiderinfo requests = arg_to_iter(self.get_media_requests(item, info)) dlist = [self._process_request(r, info) for r in requests] dfd = DeferredList(dlist, consumeErrors=1) return dfd.addCallback(self.item_completed, item, info)
可看出是调用了twisted的DeferredList来分发请求。
2.显式调用crawler.engine.crawl()
该方法参考scrapy在pipeline中重新生成request
显式调用crawler.engine.crawl(),将新的request发送至执行引擎。
class MyPipeline(object): def __init__(self, crawler): self.crawler = crawler @classmethod def from_crawler(cls, crawler): return cls(crawler) def process_item(self, item, spider): ... self.crawler.engine.crawl( Request( url='someurl', callback=self.custom_callback, ), spider, ) # YES, you can define a method callback inside the same pipeline def custom_callback(self, response): ... yield item
这篇关于scrapy的Pipeline类不可使用yield的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2025-01-10Rakuten 乐天积分系统从 Cassandra 到 TiDB 的选型与实战
- 2025-01-09CMS内容管理系统是什么?如何选择适合你的平台?
- 2025-01-08CCPM如何缩短项目周期并降低风险?
- 2025-01-08Omnivore 替代品 Readeck 安装与使用教程
- 2025-01-07Cursor 收费太贵?3分钟教你接入超低价 DeepSeek-V3,代码质量逼近 Claude 3.5
- 2025-01-06PingCAP 连续两年入选 Gartner 云数据库管理系统魔力象限“荣誉提及”
- 2025-01-05Easysearch 可搜索快照功能,看这篇就够了
- 2025-01-04BOT+EPC模式在基础设施项目中的应用与优势
- 2025-01-03用LangChain构建会检索和搜索的智能聊天机器人指南
- 2025-01-03图像文字理解,OCR、大模型还是多模态模型?PalliGema2在QLoRA技术上的微调与应用