使用scrapy-redis 分布式爬虫的时候出现了no more duplicates will be shown

使用scrapy-redis 分布式爬虫的时候出现了no more duplicates will be shown,第1张

只需要在代码中添加:dont_filter=True即可

如下

yield scrapy.Request(xxxurl,callback=self.xxxx,dont_filter=True)

问题在于提交的被爬取url出现了重复的,所以爬虫不能正常运行

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/872448.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-13
下一篇 2022-05-13

发表评论

登录后才能评论

评论列表(0条)

保存