原因是二次解析的域名被过滤掉了, 解决办法 解决办法一: yield scrapy.Request(url=detail_url, meta={'item': item}, callback=self.parse_info, dont_filter=True) 原理:忽略allowed_domains的过滤 解决办法二: 将allowed_domains = ['www.zhenai.com']  更改为allowed_domains = ['zhenai.com']  ,即更换为对应的一级域名…
爬取zol 网站图片,无法抓取. 在 setting.py 文件中 设置 日志 记录等级 LOG_LEVEL= 'DEBUG' LOG_FILE ='log.txt' 查看日志 发现报 2015-11-07 14:43:43+0800 [meizitu] DEBUG: Filtered offsite request to 'bbs.zol.com.cn': <GET http://bbs.zol.com.cn/dcbbs/d14_134253.html> 这条日志记录有点奇怪 果断上网百度…
用scrapy框架迭代爬取时报错 scrapy日志: 在 setting.py 文件中 设置 日志 记录等级 LOG_LEVEL= 'DEBUG' LOG_FILE ='log.txt' 观察 scrapy 日志 2017-08-15 21:58:05 [scrapy.spidermiddlewares.offsite] DEBUG: Filtered offsite request to 'sou.zhaopin.com': <GET http://sou.zhaopin.com/jobs/s…
scrapy错误:yield scrapy.Request()不执行.失效.Filtered offsite request to错误.首先我们在Request()方法里面添加这么一个东东: yield Request(url, callback=self.parse_item, dont_filter=True) 如果发现成功执行,那你就得检查一下你的:allowed_domains,看看前面是不是添加了:http://  ,如(错误写法): allowed_domains = ["http:…
本文转自:http://blog.csdn.net/zzk1995/article/details/51628205 先说结论,关闭scrapy自带的ROBOTSTXT_OBEY功能,在setting找到这个变量,设置为False即可解决. 使用scrapy爬取淘宝页面的时候,在提交http请求时出现debug信息Forbidden by robots.txt,看来是请求被拒绝了.开始因为是淘宝页面有什么保密机制,防止爬虫来抓取页面,于是在spider中填入各种header信息,伪装成浏览器,结…
DEBUG: Ignoring response <403 http://movie.douban.com/top250>: HTTP status code is not handled or not allowed 怎么回事呢,被屏蔽了,我们来伪装一下,在settings.py里加上USER_AGENT: 解决方法: 在setting.py文件中增加USER_AGENT配置:(随便写一条就可以了) USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW…
先说报错原因:使用了和start_urls同名的参数 我通过scral crawl projename -a start_urls=http:example.com来传start_urls,然后想在项目中初始化spider类的时候,添加抓取URL,代码如下: class xxxxSpider(CrawlSpider): name = 'xxxx' allowed_domains = ['xxxx.gov.cn'] start_urls = [ ] rules = ( Rule(LinkExtra…
学了大概一个月Scrapy,自己写了些东东,遇到很多问题,这几天心情也不大好,小媳妇人也不舒服,休假了,自己研究了很久,有些眉目了 利用scrapy 框架爬取慕课网的一些信息 步骤一:新建项目 scrapy startproject muke 进入muke scrapy genspider mukewang imooc.com  #mukewang 为爬虫名,imooc.com 是域名,爬虫爬取的范围 步骤二:编写ITEM,定义需要爬取的字段,此处只定义两个字段吧(初学) 步骤三:编写Spide…
环境使用anaconda 创建的pyithon3.6环境 mac下 source activate python36 mac@macdeMacBook-Pro:~$ source activate python36 (python36) mac@macdeMacBook-Pro:~$ cd /www (python36) mac@macdeMacBook-Pro:/www$ scrapy startproject testMiddlewile New Scrapy project 'testMi…
下载器中间件(Downloader Middleware) 下载器中间件是介于Scrapy的request/response处理的钩子框架. 是用于全局修改Scrapy request和response的一个轻量.底层的系统. 激活下载器中间件 要激活下载器中间件组件,将其加入到 DOWNLOADER_MIDDLEWARES 设置中. 该设置是一个字典(dict),键为中间件类的路径,值为其中间件的顺序(order). 这里是一个例子: DOWNLOADER_MIDDLEWARES = { 'm…