入门:

下载:pip install scrapy

工程:scrapy startproject 工程名

Spider: scrapy genspider 爬虫名 url  (--nolog//可选不显示日志)

简介:

持久化存储:

1 :终端存储:scrapy crawl -o aaa.text

2 : 管道存储:items对象即穿过来的{}字典,之后存储

3: open_spider()---->链接数据库,close_spider()-->关闭数据库,process_item()--->存储

代理Ip:

1自定义下载中间件

middleware.py---》

class MyProxy(object):

def process_request(self,request,spider):

# 请求ip 更换

request.meta['proxy'] = "http://202.112.51.51:8082"

2 开启下载中间件

DOWNLOADER_MIDDLEWARES = {

'firstBlood.middlewares.MyProxy': 543,

}

日志等级:

1

ERROR:错误

WARNING:警告

INFO:一般信息

DEBUG:调试信息(默认)

指定日志信息等级:

settings:LOG_LEVEL = ‘ERROR’

将日志信息存储到制定文件中:

settings:LOG_FILE = ‘log.txt’

2 二级传参

yield scrapy.Request(url=url,callback=self.secondParse,meta={'item':ite

m})

调用:item = response.meta['item']

请求传参:

方式一:用scrapy.Requests(method='post')

方式二:重写start_request(self)方法(推荐)

class FanyiSpider(scrapy.Spider):

def start_requests(self):

data = {

'kw':'dog'

}

for url in self.start_urls:

# FormRequest发送post请求

yield scrapy.FormRequest(url=url,formdata=data,callback=self.parse)

CrawlSpider:

一般多层请求是多少层多少方法,或递归方法--->yield scrapy.Request(url,callback,meta)

特殊请求有多种:

一:初始请求化作请求队列,功能(获取url列表,不断请求,在新页面获取新url列表)

  1. import scrapy
  2.  
  3. from scrapy.linkextractors import LinkExtractor
  4.  
  5. from scrapy.spiders import CrawlSpider, Rule
  6.  
  7. class CrawlspiderSpider(CrawlSpider):
  8.  
  9. name = 'crawlSpider'
  10.  
  11. start_urls = ['https://www.qiushibaike.com/text']
  12.  
  13. rules = ( Rule(LinkExtractor(allow=r'/text/page/\d+'), callback='parse_item', follow=True),)
  14.  
  15. '''
  16.  
  17. LinkExtractor : 设置提取链接的规则(正则表达式)
  18.  
  19. allow=(), : 设置允许提取的url
  20.  
  21. restrict_xpaths=(), :根据xpath语法,定位到某一标签下提取链接
  22.  
  23. restrict_css=(), :根据css选择器,定位到某一标签下提取链接
  24.  
  25. deny=(), : 设置不允许提取的url(优先级比allow高)
  26.  
  27. allow_domains=(), : 设置允许提取url的域
  28.  
  29. deny_domains=(), :设置不允许提取url的域(优先级比allow_domains高)
  30.  
  31. unique=True, :如果出现多个相同的url只会保留一个
  32.  
  33. strip=True :默认为True,表示自动去除url首尾的空格
  34.  
  35. '''
  36.  
  37. '''
  38.  
  39. rule
  40.  
  41. link_extractor, : linkExtractor对象
  42.  
  43. callback=None, : 设置回调函数
  44.  
  45. follow=None, : 设置是否跟进
  46.  
  47. process_links=None, :可以设置回调函数,对所有提取到的url进行拦截
  48.  
  49. process_request=identity : 可以设置回调函数,对request对象进行拦截
  50.  
  51. '''
  52.  
  53. def parse_item(self, response):
  54.  
  55. div_list = response.xpath('//div[@id="content‐left"]/div')
  56.  
  57. for div in div_list:
  58.  
  59. item = PhpmasterItem()
  60.  
  61. author = div.xpath('./div/a[2]/h2/text()').extract_first()
  62.  
  63. item['author'] = str(author).strip()
  64.  
  65. # print(author)
  66.  
  67. content = div.xpath('./a[1]/div/span/text()').extract()
  68.  
  69. content = ''.join(content)
  70.  
  71. item['content'] = str(content).strip()
  72.  
  73. yield item

二:下载img时,把img_url传到管道中,管道中下载(请求方入下级)

Spider::yield item[‘img_url’]

Setting::IMAGES_STORE = './images/'

Pip::

  1. from qiubaipic.settings import IMAGES_STORE as images_store
  2.  
  3. from scrapy.pipelines.images import ImagesPipeline
  4.  
  5. class QiubaipicPipeline(ImagesPipeline):
  6.  
  7. def get_media_requests(self, item, info):
  8.  
  9. img_link = "http:"+item['img_link']
  10.  
  11. yield scrapy.Request(img_link)

图片分组:

  1. def file_path(self, request, response=None, info=None):
  2.  
  3. '''完成图片存储路径'''
  4.  
  5. img_name = request.url.split('/')[-1] # 图片名
  6.  
  7. file_name = request.meta['file_name'] # 路径
  8.  
  9. image_guid = file_name + '/' + img_name # 天价世界名画/2560580770.jpg
  10.  
  11. img_path = IMAGES_STORE + file_name + '/' # ./image/天价世界名画/ 必须存在
  12.  
  13. if not os.path.exists(img_path):
  14.  
  15. os.makedirs(img_path)
  16.  
  17. print(request.url)
  18.  
  19. return '%s' % (image_guid)

分布式爬虫:

代理IP池和UA池

代理ip中间件:

  1. http_list = []
  2.  
  3. https_list = []
  4.  
  5. def process_request(self, request, spider):
  6.  
  7. h = request.url.split(':')[0]
  8.  
  9. if h == 'http':
  10.  
  11. http = 'http://'+random.choice(http_list)
  12.  
  13. if h == 'https':
  14.  
  15. http = 'https://'+random.choice(https_list)
  16.  
  17. request.meta['proxy'] = http

Ua中间件:

  1. user_agent_list = []
  2.  
  3. def process_request(self, request, spider):
  4.  
  5. #从列表中随机抽选出一个ua值
  6.  
  7. ua = random.choice(user_agent_list)
  8.  
  9. # 4. ua值进行当前拦截到请求的ua的写入操作
  10.  
  11. request.headers.setdefault('User-Agent',ua)

脚本运行scrapy项目:

项目下新建xxx.py;

  1. from scrapy import cmdline
  2.  
  3. # 帮助我们直接执行scrapy 命令
  4.  
  5. cmdline.execute('scrapy crawl logrule --nolog'.split())

python-爬虫-scrapy的更多相关文章

  1. python爬虫scrapy框架——人工识别登录知乎倒立文字验证码和数字英文验证码(2)

    操作环境:python3 在上一文中python爬虫scrapy框架--人工识别知乎登录知乎倒立文字验证码和数字英文验证码(1)我们已经介绍了用Requests库来登录知乎,本文如果看不懂可以先看之前 ...

  2. python爬虫Scrapy(一)-我爬了boss数据

    一.概述 学习python有一段时间了,最近了解了下Python的入门爬虫框架Scrapy,参考了文章Python爬虫框架Scrapy入门.本篇文章属于初学经验记录,比较简单,适合刚学习爬虫的小伙伴. ...

  3. python爬虫scrapy项目详解(关注、持续更新)

    python爬虫scrapy项目(一) 爬取目标:腾讯招聘网站(起始url:https://hr.tencent.com/position.php?keywords=&tid=0&st ...

  4. Python爬虫Scrapy框架入门(0)

    想学习爬虫,又想了解python语言,有个python高手推荐我看看scrapy. scrapy是一个python爬虫框架,据说很灵活,网上介绍该框架的信息很多,此处不再赘述.专心记录我自己遇到的问题 ...

  5. [Python爬虫] scrapy爬虫系列 <一>.安装及入门介绍

    前面介绍了很多Selenium基于自动测试的Python爬虫程序,主要利用它的xpath语句,通过分析网页DOM树结构进行爬取内容,同时可以结合Phantomjs模拟浏览器进行鼠标或键盘操作.但是,更 ...

  6. 安装python爬虫scrapy踩过的那些坑和编程外的思考

    这些天应朋友的要求抓取某个论坛帖子的信息,网上搜索了一下开源的爬虫资料,看了许多对于开源爬虫的比较发现开源爬虫scrapy比较好用.但是以前一直用的java和php,对python不熟悉,于是花一天时 ...

  7. Python 爬虫-Scrapy爬虫框架

    2017-07-29 17:50:29 Scrapy是一个快速功能强大的网络爬虫框架. Scrapy不是一个函数功能库,而是一个爬虫框架.爬虫框架是实现爬虫功能的一个软件结构和功能组件集合.爬虫框架是 ...

  8. python爬虫scrapy学习之篇二

    继上篇<python之urllib2简单解析HTML页面>之后学习使用Python比较有名的爬虫scrapy.网上搜到两篇相应的文档,一篇是较早版本的中文文档Scrapy 0.24 文档, ...

  9. Python爬虫Scrapy(二)_入门案例

    本章将从案例开始介绍python scrapy框架,更多内容请参考:python学习指南 入门案例 学习目标 创建一个Scrapy项目 定义提取的结构化数据(Item) 编写爬取网站的Spider并提 ...

  10. python爬虫----scrapy框架简介和基础应用

    Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以 ...

随机推荐

  1. 本地安装mysql脚本

    [root@tianyun ~]# vim mysql_install.sh #!/usr/bin/env bash #mysql install 2 #by tianyun #yum 配置yum源 ...

  2. HDU 5634 (线段树)

    题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=5634 题意:给出 n 个数,有三种操作,把区间的 ai 变为 φ(ai):把区间的 ai 变为 x:查 ...

  3. 【Android-开发环境】 eclipse开发环境搭建

    1.下载安装JDK jdk下载地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.htm ...

  4. Lua unpack函数用法

    unpack,接受一个table做个参数,然后按照下标返回数组的所有元素 unpack lua 版本 <= 5.1 local t = {nil , 3} retunrn unpack(t) / ...

  5. php-m 与 phpinfo 不一致的解决办法

    1.查看PHP当前加载的php.ini文件地址,在控制台输入以下命令: 1 php -i | grep php.ini 2.控制台返回的信息 1 2 Configuration File (php.i ...

  6. html,css,js实现的一个钟表

    效果如图: 实现代码: <!DOCTYPE html> <html lang="en"> <head> <meta charset=&qu ...

  7. Java中局部变量、实例变量和静态变量在方法区、栈内存、堆内存中的分配

    转自:https://blog.csdn.net/leunging/article/details/80599282 感谢CSDN博主「leunging」的总结分享 ———————————————— ...

  8. JavaScript设计模式—适配器模式

    适配器模式介绍 旧接口格式和使用者不兼容,中间加一个适配器转换接口 在生活中,我们有许多的适配器,例如iPhone7以后的耳机接口从3.5mm圆孔接口更改成为了苹果专属的 lightning接口.许多 ...

  9. js反混淆

    var esprima = require('esprima') var escodegen = require('escodegen') content = "function _0x35 ...

  10. BUUCTF平台-web-边刷边记录-2

    1.one line tool <?php if (isset($_SERVER['HTTP_X_FORWARDED_FOR'])) { $_SERVER['REMOTE_ADDR'] = $_ ...