# -*- coding: utf-8 -*-

# 在这里定义蜘蛛中间件的模型
# Define here the models for your spider middleware
#
# See documentation in:
# https://doc.scrapy.org/en/latest/topics/spider-middleware.html from scrapy import signals # ===========================Spider Middleware============================
# 定义:介于Scrapy引擎和爬虫之间的框架,主要工作是处理蜘蛛的响应输入和请求输出。
# Spider Middleware功能:处理爬虫的请求输入和响应输出
# scrapy已经提供了一些直接使用的中间件,他被SPIDER_MIDDLEWARES_BASE定义:
# {
# 'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 50,
# 'scrapy.spidermiddlewares.offsite.OffsiteMiddleware': 500,
# 'scrapy.spidermiddlewares.referer.RefererMiddleware': 700,
# 'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware': 800,
# 'scrapy.spidermiddlewares.depth.DepthMiddleware': 900,
# } # =================SpiderMiddleware类==================
class MaoyanSpiderMiddleware(object):
@classmethod # 类方法,参数crawler,可以通过crawler调用settings里的全局参数
def from_crawler(cls, crawler):
"""
:param crawler: 获取settings里的全局参数,如crawler.settings.get(参数)
"""
s = cls()
# 调用spider_opened函数进行爬取数据并对该函数发送该信号。该信号一般用来分配spider的资源
crawler.signals.connect(s.spider_opened, signal=signals.spider_opened) # 调用spider_closed函数进行关闭爬虫并对该函数发送该信号。该信号用来释放spider在spider_opened时占用的资源。
# crawler.signals.connect(s.spider_closed, signal=signals.spider_closed)
return s # 当返回来的response被Spider Middleware处理时,该方法被调用
def process_spider_input(self, response, spider):
"""
:param response: 被Spider Middleware处理的response对象
:param spider: 返回response对应的spider对象
"""
return None # 当spider处理response对象的结果后,该方法被调用
def process_spider_output(self, response, result, spider):
"""
:param response: 被spider处理后得到结果的response对象
:param result: result包含Item或request对象的可迭代对象,即spider返回的response结果
:param spider: 返回response对象的spider对象
"""
# 遍历返回的可迭代对象
for i in result:
yield i # 当spider的process_spider_input和process_spider_output发生异常时调用该方法
def process_spider_exception(self, response, exception, spider):
"""
:param response: 异常被抛出时被处理的response对象
:param exception: 抛出的异常
:param spider: 抛出该异常的spider对象
"""
pass # 以spider启动的request为参数调用该方法,返回一个request可迭代对象
def process_start_requests(self, start_requests, spider):
"""
:param start_requests: 开始请求的可迭代对象
:param spider: 开始请求所对应的spider对象
"""
# 遍历可迭代对象
for r in start_requests:
yield r # 当spider开启时调用该函数,说明开始爬取数据并分配spider的资源
def spider_opened(self, spider):
"""
:param spider: 开始爬取的spider对象
"""
spider.logger.info('Spider opened: %s' % spider.name) # # 当某个spider被关闭时,说明关闭该爬虫并释放spider在spider_opened时占用的资源。
# def spider_closed(self, spider):
# """
# :param spider: 开始爬取的spider对象
# """
# spider.logger.info('Spider opened:%s'%spider.name) # ======================Downloader Middleware========================
# 定义:位于Scrapy引擎和下载器之间的框架,主要是处理Scrapy引擎与下载器之间的请求及响应。见scrapy框架图
# Downloader Middleware功能:可以修改User-Agent、处理重定向、设置代理、失败重试、设置Cookies等
# scrapy已经提供了一些直接使用的中间件,他被DOWNLOADER_MIDDLEWARES_BASE定义:
# {
# 'scrapy.contrib.downloadermiddleware.robotstxt.RobotsTxtMiddleware': 100,
# 'scrapy.contrib.downloadermiddleware.httpauth.HttpAuthMiddleware': 300,
# 'scrapy.contrib.downloadermiddleware.downloadtimeout.DownloadTimeoutMiddleware': 350,
# 'scrapy.contrib.downloadermiddleware.useragent.UserAgentMiddleware': 400,
# 'scrapy.contrib.downloadermiddleware.retry.RetryMiddleware': 500,
# 'scrapy.contrib.downloadermiddleware.defaultheaders.DefaultHeadersMiddleware': 550,
# 'scrapy.contrib.downloadermiddleware.redirect.MetaRefreshMiddleware': 580,
# 'scrapy.contrib.downloadermiddleware.httpcompression.HttpCompressionMiddleware': 590,
# 'scrapy.contrib.downloadermiddleware.redirect.RedirectMiddleware': 600,
# 'scrapy.contrib.downloadermiddleware.cookies.CookiesMiddleware': 700,
# 'scrapy.contrib.downloadermiddleware.httpproxy.HttpProxyMiddleware': 750,
# 'scrapy.contrib.downloadermiddleware.chunked.ChunkedTransferMiddleware': 830,
# 'scrapy.contrib.downloadermiddleware.stats.DownloaderStats': 850,
# 'scrapy.contrib.downloadermiddleware.httpcache.HttpCacheMiddleware': 900,
# } # ===============DownloaderMiddleware类=================
class MaoyanDownloaderMiddleware(object):
@classmethod # 类方法,参数crawler,可以通过crawler调用settings里的全局参数
def from_crawler(cls, crawler):
"""
:param crawler: 获取settings里的全局参数,如crawler.settings.get(参数)
"""
s = cls()
# 调用spider_opened函数进行爬取数据并对该函数发送该信号。该信号一般用来分配spider的资源
crawler.signals.connect(s.spider_opened, signal=signals.spider_opened) # 调用spider_closed函数进行关闭爬虫并对该函数发送该信号。该信号用来释放spider在spider_opened时占用的资源。
# crawler.signals.connect(s.spider_closed, signal=signals.spider_closed)
return s # request被scrapy从调度器调度给Downloader Middleware之前调用该方法对request对象进行处理
def process_request(self, request, spider):
"""
:param request: 就是scrapy从调度器调度出来的request对象
:param spider: 就是scrapy调度出来的request对象的spider对象
"""
return None # request对象被Downloader Middleware执行后返回response是才调用该方法对response对象进行处理
def process_response(self, request, response, spider):
"""
:param request: 调度出来被Downloader Middleware处理的request对象
:param response: Downloader Middleware处理request对象返回后的response对象
:param spider: response返回来的spider对象
"""
return response # 当process_request和process_response发生异常时调用
def process_exception(self, request, exception, spider):
"""
:param request: 产生异常的request对象
:param exception: 抛出的异常对象
:param spider: 产生异常的request对象的spider对象
"""
pass # 当spider开启时调用该函数,说明开始爬取数据并分配spider的资源
def spider_opened(self, spider):
"""
:param spider: 开始爬取的spider对象
"""
spider.logger.info('Spider opened: %s' % spider.name) # # 当某个spider被关闭时,说明关闭该爬虫并释放spider在spider_opened时占用的资源。
# def spider_closed(self, spider):
# """
# :param spider: 开始爬取的spider对象
# """
# spider.logger.info('Spider opened: %s' % spider.name)

第十九节:Scrapy爬虫框架之Middleware文件详解的更多相关文章

  1. 第十八节:Scrapy爬虫框架之settings文件详解

    # -*- coding: utf-8 -*- # Scrapy settings for maoyan project## For simplicity, this file contains on ...

  2. 第三百一十九节,Django框架,文件上传

    第三百一十九节,Django框架,文件上传 1.自定义上传[推荐] 请求对象.FILES.get()获取上传文件的对象上传对象.name获取上传文件名称上传对象.chunks()获取上传数据包,字节码 ...

  3. “全栈2019”Java第六十九章:内部类访问外部类成员详解

    难度 初级 学习时间 10分钟 适合人群 零基础 开发语言 Java 开发环境 JDK v11 IntelliJ IDEA v2018.3 文章原文链接 "全栈2019"Java第 ...

  4. 第二百六十九节,Tornado框架-Session登录判断

    Tornado框架-Session登录判断 Session需要结合cookie来实现 Session的理解 1.用户登录系统时,服务器端获取系统当前时间,进行nd5加密,得到加密后的密串 2.将密串作 ...

  5. 第二百五十九节,Tornado框架-模板语言的三种方式

    Tornado框架-模板语言的三种方式 模板语言就是可以在html页面,接收逻辑处理的self.render()方法传输的变量,将数据渲染到对应的地方 一.接收值渲染 {{...}}接收self.re ...

  6. 第三十五节,目标检测之YOLO算法详解

    Redmon, J., Divvala, S., Girshick, R., Farhadi, A.: You only look once: Unified, real-time object de ...

  7. 第十五节,卷积神经网络之AlexNet网络详解(五)

    原文 ImageNet Classification with Deep ConvolutionalNeural Networks 下载地址:http://papers.nips.cc/paper/4 ...

  8. 第十七节:Scrapy爬虫框架之item.py文件以及spider中使用item

    Scrapy原理图: item位于原理图的最左边 item.py文件是报存爬取数据的容器,他使用的方法和字典很相似,但是相比字典item多了额外的保护机制,可以避免拼写错误或者定义错误. 1.创建it ...

  9. Scrapy爬虫框架补充内容一(Linux环境)

    Scrapy爬虫框架结构及工作原理详解 scrapy框架的框架结构如下: 组件分析: ENGINE:(核心):处理整个框架的数据流,各个组件在其控制下协同工作 SCHEDULER(调度器):负责接收引 ...

随机推荐

  1. 【练习】Java实现的杨辉三角形控制台输出

    import java.util.Scanner; /** * YangHui_tst01 * @author HmLy * @version 000 * - - - - - - - * 练习代码.( ...

  2. Luogu P1462 通往奥格瑞玛的道路【二分/最短路】

    题目背景 在艾泽拉斯大陆上有一位名叫歪嘴哦的神奇术士,他是部落的中坚力量 有一天他醒来后发现自己居然到了联盟的主城暴风城 在被众多联盟的士兵攻击后,他决定逃回自己的家乡奥格瑞玛 题目描述 在艾泽拉斯, ...

  3. 团队作业-项目Alpha版本发布

    一. 这个作业属于哪个课程 https://edu.cnblogs.com/campus/xnsy/SoftwareEngineeringClass2 这个作业要求在哪里 https://edu.cn ...

  4. 二分查找/暴力 Codeforces Round #166 (Div. 2) B. Prime Matrix

    题目传送门 /* 二分查找/暴力:先埃氏筛选预处理,然后暴力对于每一行每一列的不是素数的二分查找最近的素数,更新最小值 */ #include <cstdio> #include < ...

  5. 题解报告:hdu 1230 火星A+B(字符串)

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=1230 Problem Description 读入两个不超过25位的火星正整数A和B,计算A+B.需要 ...

  6. NDK(18)eclipse 使用C++ STL

    1.引用库 在Application.mk 中使用 APP_STL := stlport_static 等. APP_ABI := x86 armeabi APP_PLATFORM := androi ...

  7. 加密解密(4)SSL协议及HTTPS握手过程

    SSL协议 简介 SSL (Secure Sockets Layer 安全套接层)是一个安全协议,它提供使用 TCP/IP 的通信应用程序间的隐私与完整性.因特网的 超文本传输协议 (HTTP)使用 ...

  8. [BUG]Dreamweaver6做网页的一个图片文字不清晰的问题

    自己用Dreamweaver6做一个网页,使用PS做图片,为了节约下载流量,我把图片裁剪为GIF格式,通过系统自带的图片浏览器和美图看看,图片上的文字都是清晰的. 我把图片加载进入DW中后,在DW界面 ...

  9. 移动端UI自动化Appium测试——Appium server两种启动方式

    执行自动化测试之前,需要先运行appium server,这样才能形成server与java client的通信,启动server有两种方式,一种是命令,一种是按钮图标,具体使用如下: 1.用命令启动 ...

  10. iOS 中集成百度echarts3.0

    突然项目中要用到图表,所以就用了百度的echarts,然后就是网上搜了一下,由于本人的JS不是很熟悉,但是研究了一下还是做出来了,其实也不是很难 最后做的效果大概如下图这种,由于界面上没调整,所以粗糙 ...