收到回复评论说,按照我之前文章写的:
爬虫工作量由小到大的思维转变---<第三十一章 Scrapy Redis 初启动/conn说明书)>-CSDN博客
在启动scrapy-redis后,往redis丢入url网址的时候遇到:
整得人都崩溃了....
好嘛,来解决这个问题!
__author__ = '大河之J天上来'
from scrapy import cmdline
from scrapy_redis.spiders import RedisSpider
class DahezhijianSpider(RedisSpider):
name = "Dahezhijian"
redis_key = 'da:he'
def parse(self, response):
print(response.text)
if __name__ == '__main__':
cmdline.execute(['scrapy','crawl','Dahezhijian'])
问题追溯:
我用的版本是:
也就是2023年12月28日的最新版~ 也会遇到这个问题!!!
----相差了1年零2个月,我估计明年1到2月 redis要更新了的..
直接