爬去当当书籍信息 多台机器同时爬取,共用一个redis记录 scrapy_redis 带爬取的request对象储存在redis中,每台机器读取request对象并删除记录,经行爬取.实现分布式爬虫 import scrapy from scrapy_redis.spiders import RedisSpider from copy import deepcopy class DangdangSpider(RedisSpider): name = 'dangdang' allowed_doma…