一.Scrapy的日志等级

  1.配置

  1.  - 在使用scrapy crawl spiderFileName运行程序时,在终端里打印输出的就是scrapy的日志信息。
  2.  
  3.   - 日志信息的种类:
  4.  
  5.         ERROR 一般错误
  6.  
  7.         WARNING : 警告
  8.  
  9.         INFO : 一般的信息
  10.  
  11.         DEBUG 调试信息

- 设置日志信息指定输出:

  1.  

    在settings.py配置文件中,加入

  1.  

LOG_LEVEL = ‘指定日志信息种类’即可。

  1.  

LOG_FILE = 'log.txt'则表示将日志信息写入到指定文件中进行存储,设置后终端不显示日志内容

  1.  注:日志在setting里面默认是没有的,需要自己添加

  2.使用

  1. #在需要些日志的py文件中导包
  2. import logging

  3. #这样实例化后可以在输出日志的时候知道错误的位置再那个文件产生的
  4. LOGGER = logging.getLogger(__name__)
  5.  
  6. def start_requests(self):
  7.  
  8. if self.shared_data is not None:
  9. user = self.shared_data['entry_data']['ProfilePage'][0]['graphql']['user']
  10. self.user_id = user['id']
  11. self.count = user['edge_owner_to_timeline_media']['count']
  12. LOGGER.info('\n{}\nUser id:{}\nTotal {} photos.\n{}\n'.format('-' * 20, self.user_id, self.count, '-' * 20))
  13. for i, url in enumerate(self.start_urls):
  14. yield self.request("", self.parse_item)
  15. else:
  16. LOGGER.error('-----[ERROR] shared_data is None.')
  17.  
  18. #如果不实例化也是可以的,直接
    logging.info'dasdasdasd'
    loggging.debug('sfdghj')
    #这样不会日志不会显示产生错误的文件的位置

  3.扩展,在普通程序中使用logging

  1. import logging
  2. LOG_FORMAT = "%(asctime)s %(name)s %(levelname)s %(pathname)s %(message)s "#配置输出日志格式
  3. DATE_FORMAT = '%Y-%m-%d %H:%M:%S %a ' #配置输出时间的格式,注意月份和天数不要搞乱了
  4. logging.basicConfig(level=logging.DEBUG,
  5. format=LOG_FORMAT,
  6. datefmt = DATE_FORMAT ,
  7. filename=r"d:\test\test.log" #有了filename参数就不会直接输出显示到控制台,而是直接写入文件
  8. #实例化一个logger )
    logger=logging.getLogger(__name__)
  9.  
  10. logger.debug("msg1")
  11. logger.info("msg2")
  12. logger.warning("msg3")
  13. logger.error("msg4")
  14. logger.critical("msg5")

二.如何提高scrapy的爬取效率

  1. 增加并发:
  2. 默认scrapy开启的并发线程为个,可以适当进行增加。在settings配置文件中修改CONCURRENT_REQUESTS = 100值为100,并发设置成了为100
  3.  
  4. 降低日志级别:
  5. 在运行scrapy时,会有大量日志信息的输出,为了减少CPU的使用率。可以设置log输出信息为INFO或者ERROR即可。在配置文件中编写:LOG_LEVEL = INFO
  6.  
  7. 禁止cookie
  8. 如果不是真的需要cookie,则在scrapy爬取数据时可以进制cookie从而减少CPU的使用率,提升爬取效率。在配置文件中编写:COOKIES_ENABLED = False
  9.  
  10. 禁止重试:
  11. 对失败的HTTP进行重新请求(重试)会减慢爬取速度,因此可以禁止重试。在配置文件中编写:RETRY_ENABLED = False
  12.  
  13. 减少下载超时:
  14. 如果对一个非常慢的链接进行爬取,减少下载超时可以能让卡住的链接快速被放弃,从而提升效率。在配置文件中进行编写:DOWNLOAD_TIMEOUT = 10 超时时间为10s

  爬虫文件.py

  1. # -*- coding: utf-8 -*-
  2. import scrapy
  3. from xiaohua.items import XiaohuaItem
  4.  
  5. class XiahuaSpider(scrapy.Spider):
  6.  
  7. name = 'xiaohua'
  8. allowed_domains = ['www.521609.com']
  9. start_urls = ['http://www.521609.com/daxuemeinv/']
  10.  
  11. pageNum = 1
  12. url = 'http://www.521609.com/daxuemeinv/list8%d.html'
  13.  
  14. def parse(self, response):
  15. li_list = response.xpath('//div[@class="index_img list_center"]/ul/li')
  16. for li in li_list:
  17. school = li.xpath('./a/img/@alt').extract_first()
  18. img_url = li.xpath('./a/img/@src').extract_first()
  19.  
  20. item = XiaohuaItem()
  21. item['school'] = school
  22. item['img_url'] = 'http://www.521609.com' + img_url
  23.  
  24. yield item
  25.  
  26. if self.pageNum < 10:
  27. self.pageNum += 1
  28. url = format(self.url % self.pageNum)
  29. #print(url)
  30. yield scrapy.Request(url=url,callback=self.parse)

  items.py

  1. # -*- coding: utf-8 -*-
  2.  
  3. # Define here the models for your scraped items
  4. #
  5. # See documentation in:
  6. # https://doc.scrapy.org/en/latest/topics/items.html
  7.  
  8. import scrapy
  9.  
  10. class XiaohuaItem(scrapy.Item):
  11. # define the fields for your item here like:
  12. # name = scrapy.Field()
  13. school=scrapy.Field()
  14. img_url=scrapy.Field()

  pipline.py

  1. # -*- coding: utf-8 -*-
  2.  
  3. # Define your item pipelines here
  4. #
  5. # Don't forget to add your pipeline to the ITEM_PIPELINES setting
  6. # See: https://doc.scrapy.org/en/latest/topics/item-pipeline.html
  7.  
  8. import json
  9. import os
  10. import urllib.request
  11. class XiaohuaPipeline(object):
  12. def __init__(self):
  13. self.fp = None
  14.  
  15. def open_spider(self,spider):
  16. print('开始爬虫')
  17. self.fp = open('./xiaohua.txt','w')
  18.  
  19. def download_img(self,item):
  20. url = item['img_url']
  21. fileName = item['school']+'.jpg'
  22. if not os.path.exists('./xiaohualib'):
  23. os.mkdir('./xiaohualib')
  24. filepath = os.path.join('./xiaohualib',fileName)
  25. urllib.request.urlretrieve(url,filepath)
  26. print(fileName+"下载成功")
  27.  
  28. def process_item(self, item, spider):
  29. obj = dict(item)
  30. json_str = json.dumps(obj,ensure_ascii=False)
  31. self.fp.write(json_str+'\n')
  32.  
  33. #下载图片
  34. self.download_img(item)
  35. return item
  36.  
  37. def close_spider(self,spider):
  38. print('结束爬虫')
  39. self.fp.close()

  settings.py

  1. USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'
  2.  
  3. # Obey robots.txt rules
  4. ROBOTSTXT_OBEY = False
  5.  
  6. # Configure maximum concurrent requests performed by Scrapy (default: 16)
  7. CONCURRENT_REQUESTS = 100
  8. COOKIES_ENABLED = False
  9. LOG_LEVEL = 'ERROR'
  10. RETRY_ENABLED = False
  11. DOWNLOAD_TIMEOUT = 3
  12. # Configure a delay for requests for the same website (default: 0)
  13. # See https://doc.scrapy.org/en/latest/topics/settings.html#download-delay
  14. # See also autothrottle settings and docs
  15. # The download delay setting will honor only one of:
  16. #CONCURRENT_REQUESTS_PER_DOMAIN = 16
  17. #CONCURRENT_REQUESTS_PER_IP = 16
  18. DOWNLOAD_DELAY = 3

三.反爬处理

  1. 1.设置download_delay:设置下载的等待时间,大规模集中的访问对服务器的影响最大。download_delay可以设置在settings.py中,也可以在spider中设置
  2. 2.禁止cookies(参考 COOKIES_ENABLED),有些站点会使用cookies来发现爬虫的轨迹。在settings.py中设置COOKIES_ENABLES=False
  3. 3.使用user agent池,轮流选择之一来作为user agent。需要编写自己的UserAgentMiddle中间件
  4. 4.使用IP池。Crawlera 第三方框架可以解决爬网站的ip限制问题,下载 scrapy-crawlera Crawlera 中间件可以轻松集成该功能
  5. 5.分布式爬取。使用 Scrapy-Redis 可以实现分布式爬取蚊

四.多pipeline的处理

  为什么需要有多pipeline的情况 :

  1. 1.可能有多个spider,不同的pipeline处理不同的内容
  2.  
  3. 2.一个spider可能要做不同的操作,比如,存入不同的数据库当中

  方式一:在pipeleine中判断爬虫的名字

  1. class InsCrawlPipeline(object):
  2. def process_item(self, item, spider):
  3. if spider.name=='jingdong':
  4. pass
  5. return item
  6.  
  7. class InsCrawlPipeline1(object):
  8. def process_item(self, item, spider):
  9. if spider.name=='taobao':
  10. pass
  11. return item
  12.  
  13. class InsCrawlPipeline2(object):
  14. def process_item(self, item, spider):
  15. if spider.name=='baidu':
  16. pass
  17. return item

  或者:一个pipine类中判断爬虫的名字:

  1. class InsCrawlPipeline(object):
  2. def process_item(self, item, spider):
  3. if spider.name=='jingdong':
  4. pass
  5. elif spider.name=='taobao':
  6. pass
  7. elif spider.name=='baidu':
  8. pass
  9. return item

  方式二:在爬虫文件的item中加一个key

  spider.py

  1. def parse():
  2. item={}
  3. item['come_from']='badiu'

  pipline.py

  1. class InsCrawlPipeline(object):
  2. def process_item(self, item, spider):
  3. if item['come_from']=='taobao':
  4. pass
  5. elif item['come_from']=='jingdong':
  6. pass
  7. elif item['come_from']=='badiu':
  8. pass
  9. return item

五.多item的处理

  在item.py

  1. class YangguangItem(scrapy.Item):
  2. # define the fields for your item here like:
  3. # name = scrapy.Field()
  4. title = scrapy.Field()
  5. href = scrapy.Field()
  6. publish_date = scrapy.Field()
  7. content = scrapy.Field()
  8. content_img = scrapy.Field()
  9.  
  10. class TaobaoItem(scrapy.Item):
  11. # define the fields for your item here like:
  12. # name = scrapy.Field()
  13. pass
  14.  
  15. class JingDongItem(scrapy.Item):
  16. # define the fields for your item here like:
  17. # name = scrapy.Field()
  18. pass

  pipeline.py

  1. class YangguangPipeline(object):
  2. def process_item(self, item, spider):
  3. if isinstance(item,TaobaoItem):
  4. collection.insert(dict(item))
          elif isinstance(item,JingDongItem)
  1.     return item

  

scraoy之日志等级处理的更多相关文章

  1. log4cplus使用(二)-自定义日志等级

    log4cplus支持用户自定义日志等级,操作也比较简单,使用之前贴如下宏定义 #define LOG4CPLUS_MACRO_CREASH_LOG_LEVEL(pred) LOG4CPLUS_UNL ...

  2. 13.scrapy框架的日志等级和请求传参

    今日概要 日志等级 请求传参 如何提高scrapy的爬取效率 今日详情 一.Scrapy的日志等级 - 在使用scrapy crawl spiderFileName运行程序时,在终端里打印输出的就是s ...

  3. python日志等级输出删选

    有时候我们会删选一下输出的信息 当做日志进行文件保存 但是我们程序中有可能有自己不想存到日志文件中的输出信息 我们要做一些的删选  然后进行保存 代码如下: #!/usr/bin/python # - ...

  4. scrapy之日志等级

    scrapy之日志等级 在settings.py中配置如下项: LOG_LEVEL = 'ERROR' # 当LOG_LEVEL设置为ERROR时,在进行日志打印时,只是打印ERROR级别的日志 这样 ...

  5. scrapy框架的日志等级和请求传参

    日志等级 请求传参 如何提高scrapy的爬取效率 一.Scrapy的日志等级 - 在使用scrapy crawl spiderFileName运行程序时,在终端里打印输出的就是scrapy的日志信息 ...

  6. scrapy框架之日志等级和请求传参-cookie-代理

    一.Scrapy的日志等级 - 在使用scrapy crawl spiderFileName运行程序时,在终端里打印输出的就是scrapy的日志信息. - 日志信息的种类: ERROR : 一般错误 ...

  7. Scrapy的日志等级和请求传参

    日志等级 日志信息:   使用命令:scrapy crawl 爬虫文件 运行程序时,在终端输出的就是日志信息: 日志信息的种类: ERROR:一般错误: WARNING:警告: INFO:一般的信息: ...

  8. CEF之CefSettings设置日志等级

    CefSettings结构体允许定义全局的CEF配置,经常用到的配置项如下: single_process 设置为true时,Browser和Renderer使用一个进程.此项也可以通过命令行参数“s ...

  9. scrapy框架的日志等级和请求参数

    一 . Scrapy的日志等级 - 在使用 scrapy crawl xxx 允许程序时,在终端里打印输出的就是scrapy的日志信息 - 日志信息的种类 : ERROR : 错误信息 WARNING ...

随机推荐

  1. 453D Little Pony and Elements of Harmony

    传送门 分析 我们可以将所有的b[i^j]直接对应到b[f(i^j)]上 于是显然可以fwt 我们对b进行t次fwt之后直接将答案与e0卷起来即可 注意由于模数不确定,我们可以将模数扩大$2^m$然后 ...

  2. JMS-消息中间件的应用01-基本概念-来自慕课学习-新手学习

    什么是JMS? Java消息服务(Java Message Service),即JMS,是一个java平台中关于面向消息中间件的API,用于在两个应用程序之间,或分布式系统中发送消息,进行异步通信. ...

  3. css总结18:HTML 表单和inut各个常用标签

    1 HTML 表单和输入 1.1 HTML 表单介绍 表单是一个包含表单元素的区域. 表单元素是允许用户在表单中输入内容,比如:文本域(textarea).下拉列表.单选框(radio-buttons ...

  4. Java String 常用类的使用方法

    public static void main(String[] args) { // TODO Auto-generated method stub /* * 使用for循环遍历数组 * int a ...

  5. XML在C#与Unity3D中的实战运用

    一.xml文件是什么? XML是指可扩展标记语言,英文:Extensible Markup Language的缩写. 二.xml文件有什么用? 用来传输和存储数据,比如网络通信,本地配置文件等. 三. ...

  6. 宏(使用注意事项、主要用途)------c++程序设计原理与实践(进阶篇)

    使用宏的时候一定要小心:在c中没有真正有效的方法来避免使用宏,但宏带有严重的副作用,因为宏不遵守通常的c(或c++)作用域和类型规则——它只是一种文本替换.   宏的使用注意事项: 所以宏名全部大写. ...

  7. 分享一个利用HTML5制作的海浪效果代码

    在前面简单讲述了一下HTML里的Canvas,这次根据Canvas完成了“海浪效果”(水波上升). (O(∩_∩)O哈哈哈~作者我能看这个动画看一下午) 上升水波.gif 动画分析构成:贝塞尔曲线画布 ...

  8. iOS系统各个版本的占比查询

    目的:为了向大多数看齐,我们要实时了解应用系统的使用占比 1.苹果官网查询各个系统的占比: Apple 2.各种设备各种系统的占比 第三方

  9. 题解 P2613 【【模板】有理数取余】

    题目链接 我们先看这个式子: $c=\dfrac{a}{b}$ $ $ $ $ $mod$ $ $ $ $ $19260817$ 某正常高中生:这$……$ --- 对于这个 $c$ . 显然,它很可能 ...

  10. springboot集成巨杉数据库

    springboot倾向于约定优于配置,所以大大简化了搭建项目的流程,包括各种数据源的配置,接下来就和大家分享下最近用到的巨杉数据源连接池的配置 1.现在配置文件中定义巨杉连接池的各种连接信息,至于每 ...