1. 基本使用

1.1 定义及安装

  • 为了爬取网站数据,提取结构性数据而编写的应用框架
  • scrapy组件工作流程
引擎首先会将爬虫文件中的起始url获取,并且提交到调度器中。如果需要从url中下载数据,则调度器会将url通过引擎提交给下载器,
下载器根据url去下载指定内容(响应体)。下载好的数据会通过引擎移交给爬虫文件,爬虫文件可以将下载的数据进行指定格式的解析。
如果解析出的数据需要进行持久化存储,则爬虫文件会将解析好的数据通过引擎移交给管道进行持久化存储
  • 安装
Linux:
pip3 install scrapy Windows:
a. pip3 install wheel
b. 下载twisted http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
c. 进入下载目录,执行 pip3 install Twisted‑17.1.0‑cp35‑cp35m‑win_amd64.whl
d. pip3 install pywin32
e. pip3 install scrapy

1.2 项目创建

1、创建项目:scrapy startproject 项目名称

2、目录文件功能
scrapy.cfg 项目的主配置信息。(真正爬虫相关的配置信息在settings.py文件中)
items.py 设置数据存储模板,用于结构化数据,如:Django的Model
pipelines 数据持久化处理
settings.py 配置文件,如:递归的层数、并发数,延迟下载等
middlewares 中间件设置
spiders 爬虫目录,如:创建文件,编写爬虫解析规则 3、创建爬虫应用程序
(1)cd project_name(进入项目目录)
(2)scrapy genspider 应用名称 爬取网页的起始url (例如:scrapy genspider qiubai www.qiushibaike.com)
自动生成py文件:
import scrapy
class FirsttestSpider(scrapy.Spider):#爬虫类是基于Spider这个父类
name = 'firstTest' #爬虫文件的名称
#允许的域名:
#allowed_domains = ['www.qiushibaike.com']
#起始url列表:当前的爬虫文件可以从该列表中存储的url中爬取数据
start_urls = ['https://www.qiushibaike.com/text/'] #继承与父类的方法:用于解析请求到的页面数据
def parse(self, response):
print('haha this is hehe')
print(response)
#xpath函数的返回值是Selector对象(使用xpath表达式解析出来的内容是被存储在了Selecotr对象中)
#title = response.xpath('//*[@id="qiushi_tag_121076506"]/div[1]/a[2]/h2/text()')[0].extract()
#extract系列函数的作用是将Selector中的文本数据取出。
#Selector对象可以直接调用xpath函数。
title = response.xpath('//*[@id="qiushi_tag_121056271"]/div[1]/a[2]/h2/text()').extract_first()
title = response.xpath('//*[@id="qiushi_tag_121056271"]/div[1]/a[2]/h2/text()')[0]
print(title) (3)scrapy crawl 应用名称 #执行程序 4、基本配置
settings文件:
(1)伪装请求载体身份
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'
(2)忽略robots协议
ROBOTSTXT_OBEY = False
(3)开启管道(后面数字指定优先级)
ITEM_PIPELINES = {
'firstBlood.pipelines.FirstbloodPipeline': 300,
}
(4)使用代理ip时中间件设置
SPIDER_MIDDLEWARES = {
'firstBlood.middlewares.FirstbloodSpiderMiddleware': 543,
}
# 把默认的该成自己定义的类名 :FirstbloodSpiderMiddleware 改成 MyDaili
----------------------------------
注:在middlewares文件写入:
class MyDaili(object):
def process_request(self,request,spider):
#在该方法中设置代理ip
request.meta['proxy']='http://120.76.231.27:3128'

1.3 爬取糗百作者和标题(get请求)

spiders文件夹(qiutu.py):
import scrapy
from qiubai_all.items import QiubaiAllItem
class QiutuSpider(scrapy.Spider):
name = 'qiutu'
#allowed_domains = ['www.qiushibaike.com/pic/']
start_urls = ['http://www.qiushibaike.com/pic/'] #指定一个页码通用的url
url = 'https://www.qiushibaike.com/pic/page/%d/?s=5127014'
pageNum = 1 #控制页码 def parse(self, response):
div_list = response.xpath('//*[@id="content-left"]/div')
for div in div_list:
item = QiubaiAllItem() #创建item对象
#使用管道进行持久化存储的流程:
#1.使用爬虫文件获得解析到的数据
#2.将解析到的数据封装存储到items对象中
#3.将封装好的items对象提交给管道文件
#4.在管道文件中编写持久化存储的代码
#5.在settings中开启管道
item['author']=div.xpath('.//h2/text()').extract_first()
item['content']=div.xpath('.//div[@class="content"]/span/text()').extract_first() yield item #想要对应不同页码的url发起请求
if self.pageNum <= 35:
self.pageNum += 1 #从第二页发起请求 print('开始爬取第%d页的数据'%self.pageNum)
new_url = format(self.url%self.pageNum) #是新页码的url
#发起请求
#url:请求的url
#callback:回调函数(指定解析数据的规则)
yield scrapy.Request(url=new_url,callback=self.parse) items文件:
import scrapy
class QiubaiAllItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
author = scrapy.Field()
content = scrapy.Field() pipelines文件:
class QiubaiAllPipeline(object):
def __init__(self):
self.fp = None
def open_spider(self,spider):
print('开始爬虫')
self.fp = open('./data.txt','w',encoding='utf-8') def process_item(self, item, spider):
#1.获取item中的数据
self.fp.write(item['author']+':'+item['content']+'\n\n')
return item
def close_spider(self,spider):
print('爬虫结束')
self.fp.close()

1.4 校花网图片链接及图片名爬取

spiders文件:
import scrapy
from xiaohuaPro.items import XiaohuaproItem
class XiaohuaSpider(scrapy.Spider):
name = 'xiaohua'
#allowed_domains = ['www.521609.com/daxuemeinv']
start_urls = ['http://www.521609.com/daxuemeinv/']
url = 'http://www.521609.com/daxuemeinv/list8%d.html'
page_num = 1
def parse(self, response):
li_list = response.xpath('//*[@id="content"]/div[2]/div[2]/ul/li')
for li in li_list:
item = XiaohuaproItem()
item['img_url'] = li.xpath('./a/img/@src').extract_first()
#拼接图片下载的url
item['img_url'] = 'http://www.521609.com'+item['img_url']
item['img_name'] = li.xpath('./a/img/@alt').extract_first() yield item
if self.page_num <= 23:
self.page_num += 1
url = format(self.url%self.page_num)
yield scrapy.Request(url=url,callback=self.parse) items文件:
import scrapy
class XiaohuaproItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
img_url = scrapy.Field()
img_name = scrapy.Field() pipelines文件:
import json
import urllib.request
import os
class XiaohuaproPipeline(object):
def __init__(self):
self.fp = None
def open_spider(self,spider):
print('开始爬虫')
self.fp = open('./data.json','w',encoding='utf-8')
def process_item(self, item, spider):
img_dic = {
'img_url':item['img_url'],
'img_name':item['img_name']
}
#json.dumps 序列化时对中文默认使用的ascii编码.想输出真正的中文需要指定ensure_ascii=False
json_string = json.dumps(img_dic,ensure_ascii=False)
self.fp.write(json_string) #下载图片操作
if not os.path.exists('xiaohua'):
os.mkdir('xiaohua')
filePath='xiaohua/'+item['img_name']+'.png'
urllib.request.urlretrieve(url=item['img_url'],filename=filePath)
print(filePath+ ':下载成功') return item
def close_spider(self,spider):
self.fp.close()
print('爬虫结束') #urlretrieve(url, filename=None, reporthook=None, data=None) 有四个参数
#前两个是下载的地址和保存的路径
#'参数 reporthook 是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。' \
# '参数 data 指 post 到服务器的数据,该方法返回一个包含两个元素的(filename, headers)元组,filename 表示保存到本地的路径,header 表示服务器的响应头。'

1.5 百度翻译post请求案例

spiders文件:
import scrapy
class PostdemoSpider(scrapy.Spider):
name = 'postDemo'
allowed_domains = ['https://fanyi.baidu.com/sug']
#start_urls = ['http://https://fanyi.baidu.com/sug/'] #该方法就是对start_urls列表中的url发起请求
#def start_requests(self): #父类对该方法的默认实现
#for url in self.start_urls:
#yield scrapy.Request(url=url,callback=parse) #重写父类的start_requests方法:该方法默认发起的是get请求
def start_requests(self):
post_url = 'https://fanyi.baidu.com/sug/'
data = {
'kw':'dog'
}
#FormRequest该函数用来发起post请求
#Request使用用来发起get请求
yield scrapy.FormRequest(url=post_url,formdata=data,callback=self.parse) def parse(self, response):
print(response.text) pipeline文件:
class PostproPipeline(object):
def process_item(self, item, spider):
return item

1.6 获取二级子页面内容(请求传参)

import scrapy
from moviePro.items import MovieproItem
class MovieSpider(scrapy.Spider):
name = 'movie'
#allowed_domains = ['www.id97.com']
start_urls = ['http://www.id97.com/'] #该方法是用来指定二级子页面的解析规则
def secondPageParse(self,response):
#接收Request函数传递过来的参数(meta对应字典的key值),此时得到的item对象即使parse函数中的item= MovieproItem()
# 再去item文件中加上二级子页面的两个属性(actor,show_time)
item = response.meta['item']
item['actor'] = response.xpath('/html/body/div[1]/div/div/div[1]/div[1]/div[2]/table/tbody/tr[1]/td[2]/a/text()').extract_first()
item['show_time'] = response.xpath('/html/body/div[1]/div/div/div[1]/div[1]/div[2]/table/tbody/tr[7]/td[2]/text()').extract_first() #将item提交给管道
yield item def parse(self, response):
div_list = response.xpath('/html/body/div[1]/div[2]/div[1]/div/div')
for div in div_list:
item = MovieproItem()
item['name'] = div.xpath('./div/div[@class="meta"]//a/text()').extract_first()
item['kind'] = div.xpath('./div/div[@class="meta"]/div[@class="otherinfo"]//text()').extract()
item['kind'] = ''.join(item['kind'])
item['url'] = div.xpath('./div/div[@class="meta"]//a/@href').extract_first()
#meta={'item':item} 该参数是用来给回调函数进行传值,指定字典的形式,通过key 传多个值
yield scrapy.Request(url=item['url'],callback=self.secondPageParse,meta={'item':item})

Scrapy 框架的更多相关文章

  1. Python爬虫Scrapy框架入门(2)

    本文是跟着大神博客,尝试从网站上爬一堆东西,一堆你懂得的东西 附上原创链接: http://www.cnblogs.com/qiyeboy/p/5428240.html 基本思路是,查看网页元素,填写 ...

  2. Python爬虫Scrapy框架入门(1)

    也许是很少接触python的原因,我觉得是Scrapy框架和以往Java框架很不一样:它真的是个框架. 从表层来看,与Java框架引入jar包.配置xml或.property文件不同,Scrapy的模 ...

  3. Scrapy框架使用—quotesbot 项目(学习记录一)

    一.Scrapy框架的安装及相关理论知识的学习可以参考:http://www.yiibai.com/scrapy/scrapy_environment.html 二.重点记录我学习使用scrapy框架 ...

  4. Python爬虫从入门到放弃(十一)之 Scrapy框架整体的一个了解

    这里是通过爬取伯乐在线的全部文章为例子,让自己先对scrapy进行一个整理的理解 该例子中的详细代码会放到我的github地址:https://github.com/pythonsite/spider ...

  5. Python爬虫从入门到放弃(十二)之 Scrapy框架的架构和原理

    这一篇文章主要是为了对scrapy框架的工作流程以及各个组件功能的介绍 Scrapy目前已经可以很好的在python3上运行Scrapy使用了Twisted作为框架,Twisted有些特殊的地方是它是 ...

  6. python爬虫scrapy框架——人工识别登录知乎倒立文字验证码和数字英文验证码(2)

    操作环境:python3 在上一文中python爬虫scrapy框架--人工识别知乎登录知乎倒立文字验证码和数字英文验证码(1)我们已经介绍了用Requests库来登录知乎,本文如果看不懂可以先看之前 ...

  7. 一个scrapy框架的爬虫(爬取京东图书)

    我们的这个爬虫设计来爬取京东图书(jd.com). scrapy框架相信大家比较了解了.里面有很多复杂的机制,超出本文的范围. 1.爬虫spider tips: 1.xpath的语法比较坑,但是你可以 ...

  8. 安装scrapy框架的常见问题及其解决方法

    下面小编讲一下自己在windows10安装及配置Scrapy中遇到的一些坑及其解决的方法,现在总结如下,希望对大家有所帮助. 常见问题一:pip版本需要升级 如果你的pip版本比较老,可能在安装的过程 ...

  9. 关于使用scrapy框架编写爬虫以及Ajax动态加载问题、反爬问题解决方案

    Python爬虫总结 总的来说,Python爬虫所做的事情分为两个部分,1:将网页的内容全部抓取下来,2:对抓取到的内容和进行解析,得到我们需要的信息. 目前公认比较好用的爬虫框架为Scrapy,而且 ...

  10. 利用scrapy框架进行爬虫

    今天一个网友问爬虫知识,自己把许多小细节都忘了,很惭愧,所以这里写一下大概的步骤,主要是自己巩固一下知识,顺便复习一下.(scrapy框架有一个好处,就是可以爬取https的内容) [爬取的是杨子晚报 ...

随机推荐

  1. Gym - 101350G Snake Rana(容器原理)

    Old Macdonald wants to build a new hen house for his hens. He buys a new rectangular area of size N  ...

  2. 利用DOS命令窗口进行Mail通信(二)

    一:SMTP协议(对邮件进行发送) <SP>代表空格,<CRLF>代表回车和换行 SMTP命令格式 说明 ehlo<SP><domain><CRL ...

  3. NLTK基础

    Python上著名的⾃然语⾔处理库 ⾃带语料库,词性分类库 ⾃带分类,分词,等等功能 强⼤的社区⽀持 还有N多的简单版wrapper 安装语料库 # 方式一 import nltk nltk.down ...

  4. DirectX11 With Windows SDK--22 立方体映射:静态天空盒的读取与实现

    前言 这一章我们主要学习由6个纹理所构成的立方体映射,以及用它来实现一个静态天空盒. 但是在此之前先要消除两个误区: 认为这一章的天空盒就是简单的在一个超大立方体的六个面内部贴上天空盒纹理: 认为天空 ...

  5. HTML(八)HTML meta标签&base标签

    HTML meta元素 标签(meta-information)用于提供页面有关的元数据,除了提供文档字符集.使用语言.作者等基本信息外,还涉及对关键词和网页等级的设定.通过设置不同的属性,元数据可以 ...

  6. python之造测试数据-faker(转载)

    在软件需求.开发.测试过程中,有时候需要使用一些测试数据,针对这种情况,我们一般要么使用已有的系统数据,要么需要手动制造一些数据. 在手动制造数据的过程中,可能需要花费大量精力和工作量,现在好了,有一 ...

  7. StringBuffer/StringBuilder总结

  8. [转] 常用Loss函数

    好文mark 转自机器之心 :https://www.jiqizhixin.com/articles/2018-06-21-3 “损失函数”是机器学习优化中至关重要的一部分.L1.L2损失函数相信大多 ...

  9. [好文mark] 深度学习中的注意力机制

    https://cloud.tencent.com/developer/article/1143127

  10. LNMP一键包安装后解决MySQL无法远程连接问题

    MySQL/MariaDB无法远程连接,如何开启? 1,没有给root对应的权限 -- @'192.168.1.123'可以替换为@‘%’就可任意ip访问 mysql> GRANT ALL PR ...