爬虫 之 scrapy框架
浏览目录
介绍
Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。
Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。整体架构大致如下
在Scrapy的数据流是由执行引擎控制,具体流程如下:
1、spiders产生request请求,将请求交给引擎
2、引擎(EGINE)吧刚刚处理好的请求交给了调度器,以一个队列或者堆栈的形式吧这些请求保存起来,调度一个出来再传给引擎
3、调度器(SCHEDULER)返回给引擎一个要爬取的url
4、引擎把调度好的请求发送给download,通过中间件发送(这个中间件至少有 两个方法,一个请求的,一个返回的),
5、一旦完成下载就返回一个response,通过下载器中间件,返回给引擎,引擎把response 对象传给下载器中间件,最后到达引擎
6、引擎从下载器中收到response对象,从下载器中间件传给了spiders(spiders里面做两件事,1、产生request请求,2、为request请求绑定一个回调函数),spiders只负责解析爬取的任务。不做存储,
7、解析完成之后返回一个解析之后的结果items对象及(跟进的)新的Request给引擎
就被ITEM PIPELUMES处理了
8、引擎将(Spider返回的)爬取到的Item给Item Pipeline,存入数据库,持久化,如果数据不对,可重新封装成一个request请求,传给调度器
9、(从第二步)重复直到调度器中没有更多地request,引擎关闭该网站.
scrapy框架分为七大部分核心的组件
1、引擎(EGINE)
引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。
2、调度器(SCHEDULER)
用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址
3、下载器(DOWLOADER)
用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的
4、爬虫(SPIDERS)
SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求
5、项目管道(ITEM PIPLINES)
在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作
6、下载器中间件(Downloader Middlewares)
下载器中间件是在引擎及下载器之间的特定钩子(specific hook),处理Downloader传递给引擎的response。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 下载器中间件(Downloader Middleware) 。
7、爬虫中间件(Spider Middlewares)
Spider中间件是在引擎及Spider之间的特定钩子(specific hook),处理spider的输入(response)和输出(items及requests)。 其提供了一个简便的机制,通过插入自定义代码来扩展Scrapy功能。更多内容请看 Spider中间件(Middleware) 。
安装
#Windows平台
1、pip3 install wheel #安装后,便支持通过wheel文件安装软件,wheel文件官网:https://www.lfd.uci.edu/~gohlke/pythonlibs
3、pip3 install lxml
4、pip3 install pyopenssl
5、下载并安装pywin32:https://sourceforge.net/projects/pywin32/files/pywin32/
6、下载twisted的wheel文件:http://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted
7、执行pip3 install 下载目录\Twisted-17.9.0-cp36-cp36m-win_amd64.whl
8、pip3 install scrapy #Linux平台
1、pip3 install scrapy
项目结构
project_name/
scrapy.cfg
project_name/
__init__.py
items.py
pipelines.py
settings.py
spiders/
__init__.py
爬虫1.py
爬虫2.py
注意:一般创建爬虫文件时,以网站域名命名
默认只能在cmd中执行爬虫,如果想在pycharm中执行需要做:
#在项目目录下新建:entrypoint.py
from scrapy.cmdline import execute
# execute(['scrapy', 'crawl', 'amazon','--nolog']) #不要日志打印
# execute(['scrapy', 'crawl', 'amazon']) #我们可能需要在命令行为爬虫程序传递参数,就用下面这样的命令
#acrapy crawl amzaon -a keyword=iphone8
execute(['scrapy', 'crawl', 'amazon1','-a','keyword=iphone8','--nolog']) #不要日志打印 # execute(['scrapy', 'crawl', 'amazon1'])
windows编码
import sys,os
sys.stdout=io.TextIOWrapper(sys.stdout.buffer,encoding='gb18030')
常用命令行工具
#1 查看帮助
scrapy -h
scrapy <command> -h #2 有两种命令:其中Project-only必须切到项目文件夹下才能执行,而Global的命令则不需要
Global commands:
startproject #创建项目
genspider #创建爬虫程序
settings #如果是在项目目录下,则得到的是该项目的配置
runspider #运行一个独立的python文件,不必创建项目
shell #scrapy shell url地址 在交互式调试,如选择器规则正确与否
fetch #独立于程单纯地爬取一个页面,可以拿到请求头
view #下载完毕后直接弹出浏览器,以此可以分辨出哪些数据是ajax请求
version #scrapy version 查看scrapy的版本,scrapy version -v查看scrapy依赖库的版本
Project-only commands:
crawl #运行爬虫,必须创建项目才行,确保配置文件中ROBOTSTXT_OBEY = False
check #检测项目中有无语法错误
list #列出项目中所包含的爬虫名
edit #编辑器,一般不用
parse #scrapy parse url地址 --callback 回调函数 #以此可以验证我们的回调函数是否正确
bench #scrapy bentch压力测试 #3 官网链接
https://docs.scrapy.org/en/latest/topics/commands.html
1 全局命令:所有文件夹都使用的命令,可以不依赖与项目文件也可以执行
2 项目的文件夹下执行的命令
3 1、scrapy startproject Myproject #创建项目
4 cd Myproject
5 2、scrapy genspider baidu www.baidu.com #创建爬虫程序,baidu是爬虫名,定位爬虫的名字
6 #写完域名以后默认会有一个url,
7 3、scrapy settings --get BOT_NAME #获取配置文件
8 #全局:4、scrapy runspider budui.py
9 5、scrapy runspider AMAZON\spiders\amazon.py #执行爬虫程序
10 在项目下:scrapy crawl amazon #指定爬虫名,定位爬虫程序来运行程序
11 #robots.txt 反爬协议:在目标站点建一个文件,里面规定了哪些能爬,哪些不能爬
12 # 有的国家觉得是合法的,有的是不合法的,这就产生了反爬协议
13 # 默认是ROBOTSTXT_OBEY = True
14 # 修改为ROBOTSTXT_OBEY = False #默认不遵循反扒协议
15 6、scrapy shell https://www.baidu.com #直接超目标站点发请求
16 response
17 response.status
18 response.body
19 view(response)
20 7、scrapy view https://www.taobao.com #如果页面显示内容不全,不全的内容则是ajax请求实现的,以此快速定位问题
21 8、scrapy version #查看版本
22 9、scrapy version -v #查看scrapy依赖库锁依赖的版本
23 10、scrapy fetch --nolog http://www.logou.com #获取响应的内容
24 11、scrapy fetch --nolog --headers http://www.logou.com #获取响应的请求头
25 (venv3_spider) E:\twisted\scrapy框架\AMAZON>scrapy fetch --nolog --headers http://www.logou.com
26 > Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
27 > Accept-Language: en
28 > User-Agent: Scrapy/1.5.0 (+https://scrapy.org)
29 > Accept-Encoding: gzip,deflate
30 >
31 < Content-Type: text/html; charset=UTF-8
32 < Date: Tue, 23 Jan 2018 15:51:32 GMT
33 < Server: Apache
34 >代表请求
35 <代表返回
36 10、scrapy shell http://www.logou.com #直接朝目标站点发请求
37 11、scrapy check #检测爬虫有没有错误
38 12、scrapy list #所有的爬虫名
39 13、scrapy parse http://quotes.toscrape.com/ --callback parse #验证回调函函数是否成功执行
40 14、scrapy bench #压力测试
示例
Spiders爬虫
介绍
1、Spiders是由一系列类(定义了一个网址或一组网址将被爬取)组成,具体包括如何执行爬取任务并且如何从页面中提取结构化的数据。 2、换句话说,Spiders是你为了一个特定的网址或一组网址自定义爬取和解析页面行为的地方
Spiders会循环做如下事情
#1、生成初始的Requests来爬取第一个URLS,并且标识一个回调函数
第一个请求定义在start_requests()方法内默认从start_urls列表中获得url地址来生成Request请求,默认的回调函数是parse方法。回调函数在下载完成返回response时自动触发 #2、在回调函数中,解析response并且返回值
返回值可以4种:
包含解析数据的字典
Item对象
新的Request对象(新的Requests也需要指定一个回调函数)
或者是可迭代对象(包含Items或Request) #3、在回调函数中解析页面内容
通常使用Scrapy自带的Selectors,但很明显你也可以使用Beutifulsoup,lxml或其他你爱用啥用啥。 #4、最后,针对返回的Items对象将会被持久化到数据库
通过Item Pipeline组件存到数据库:https://docs.scrapy.org/en/latest/topics/item-pipeline.html#topics-item-pipeline)
或者导出到不同的文件(通过Feed exports:https://docs.scrapy.org/en/latest/topics/feed-exports.html#topics-feed-exports)
Spiders总共提供了五种类
#1、scrapy.spiders.Spider #scrapy.Spider等同于scrapy.spiders.Spider
#2、scrapy.spiders.CrawlSpider
#3、scrapy.spiders.XMLFeedSpider
#4、scrapy.spiders.CSVFeedSpider
#5、scrapy.spiders.SitemapSpider
导入使用
import scrapy
class AmazonSpider(scrapy.Spider): name = 'amazon' # 必须唯一
allowed_domains = ['www.amazon.cn'] # 允许域
start_urls = ['http://www.amazon.cn/'] # 如果你没有指定发送的请求地址,会默认使用只一个 def parse(self,response):
pass
class scrapy.spiders.Spider
这是最简单的spider类,任何其他的spider类都需要继承它(包含你自己定义的)。
该类不提供任何特殊的功能,它仅提供了一个默认的start_requests方法默认从start_urls中读取url地址发送requests请求,并且默认parse作为回调函数.
import scrapy
class AmazonSpider(scrapy.Spider):
def __init__(self,keyword=None,*args,**kwargs): #在entrypoint文件里面传进来的keyword,在这里接收了
super(AmazonSpider,self).__init__(*args,**kwargs)
self.keyword = keyword name = 'amazon' # 必须唯一
allowed_domains = ['www.amazon.cn'] # 允许域
start_urls = ['http://www.amazon.cn/'] # 如果你没有指定发送的请求地址,会默认使用只一个 custom_settings = { # 自定制配置文件,自己设置了用自己的,没有就找父类的
"BOT_NAME": 'HAIYAN_AMAZON',
'REQUSET_HEADERS': {},
} def start_requests(self):
url = 'https://www.amazon.cn/s/ref=nb_sb_noss_1/461-4093573-7508641?'
url+=urlencode({"field-keywords":self.keyword})
print(url)
yield scrapy.Request(
url,
callback = self.parse_index, #指定回调函数
dont_filter = True, #不去重,这个也可以自己定制
# dont_filter = False, #去重,这个也可以自己定制
# meta={'a':1} #meta代理的时候会用
)
#如果要想测试自定义的dont_filter,可多返回结果重复的即可
DEFAULT_REQUEST_HEADERS = {
# 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
# 'Accept-Language': 'en',
"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"
}
在settings
1 #1、name = 'amazon'
2 定义爬虫名,scrapy会根据该值定位爬虫程序
3 所以它必须要有且必须唯一(In Python 2 this must be ASCII only.)
4
5 #2、allowed_domains = ['www.amazon.cn']
6 定义允许爬取的域名,如果OffsiteMiddleware启动(默认就启动),
7 那么不属于该列表的域名及其子域名都不允许爬取
8 如果爬取的网址为:https://www.example.com/1.html,那就添加'example.com'到列表.
9
10 #3、start_urls = ['http://www.amazon.cn/']
11 如果没有指定url,就从该列表中读取url来生成第一个请求
12
13 #4、custom_settings
14 值为一个字典,定义一些配置信息,在运行爬虫程序时,这些配置会覆盖项目级别的配置
15 所以custom_settings必须被定义成一个类属性,由于settings会在类实例化前被加载
16
17 #5、settings
18 通过self.settings['配置项的名字']可以访问settings.py中的配置,如果自己定义了custom_settings还是以自己的为准
19
20 #6、logger
21 日志名默认为spider的名字
22 self.logger.debug('=============>%s' %self.settings['BOT_NAME'])
23
24 #5、crawler:了解
25 该属性必须被定义到类方法from_crawler中
26
27 #6、from_crawler(crawler, *args, **kwargs):了解
28 You probably won’t need to override this directly because the default implementation acts as a proxy to the __init__() method, calling it with the given arguments args and named arguments kwargs.
29
30 #7、start_requests()
31 该方法用来发起第一个Requests请求,且必须返回一个可迭代的对象。它在爬虫程序打开时就被Scrapy调用,Scrapy只调用它一次。
32 默认从start_urls里取出每个url来生成Request(url, dont_filter=True)
33
34 #针对参数dont_filter,请看自定义去重规则
35
36 如果你想要改变起始爬取的Requests,你就需要覆盖这个方法,例如你想要起始发送一个POST请求,如下
37 class MySpider(scrapy.Spider):
38 name = 'myspider'
39
40 def start_requests(self):
41 return [scrapy.FormRequest("http://www.example.com/login",
42 formdata={'user': 'john', 'pass': 'secret'},
43 callback=self.logged_in)]
44
45 def logged_in(self, response):
46 # here you would extract links to follow and return Requests for
47 # each of them, with another callback
48 pass
49
50 #8、parse(response)
51 这是默认的回调函数,所有的回调函数必须返回an iterable of Request and/or dicts or Item objects.
52
53 #9、log(message[, level, component]):了解
54 Wrapper that sends a log message through the Spider’s logger, kept for backwards compatibility. For more information see Logging from Spiders.
55
56 #10、closed(reason)
57 爬虫程序结束时自动触发
定制scrapy.spider属性与方法
1 去重规则应该多个爬虫共享的,但凡一个爬虫爬取了,其他都不要爬了,实现方式如下
2
3 #方法一:
4 1、新增类属性
5 visited=set() #类属性
6
7 2、回调函数parse方法内:
8 def parse(self, response):
9 if response.url in self.visited:
10 return None
11 .......
12
13 self.visited.add(response.url)
14
15 #方法一改进:针对url可能过长,所以我们存放url的hash值
16 def parse(self, response):
17 url=md5(response.request.url)
18 if url in self.visited:
19 return None
20 .......
21
22 self.visited.add(url)
23
24 #方法二:Scrapy自带去重功能
25 配置文件:
26 DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter' #默认的去重规则帮我们去重,去重规则在内存中
27 DUPEFILTER_DEBUG = False
28 JOBDIR = "保存范文记录的日志路径,如:/root/" # 最终路径为 /root/requests.seen,去重规则放文件中
29
30 scrapy自带去重规则默认为RFPDupeFilter,只需要我们指定
31 Request(...,dont_filter=False) ,如果dont_filter=True则告诉Scrapy这个URL不参与去重。
32
33 #方法三:
34 我们也可以仿照RFPDupeFilter自定义去重规则,
35
36 from scrapy.dupefilter import RFPDupeFilter,看源码,仿照BaseDupeFilter
37
38 #步骤一:在项目目录下自定义去重文件cumstomdupefilter.py
39 '''
40 if hasattr("MyDupeFilter",from_settings):
41 func = getattr("MyDupeFilter",from_settings)
42 obj = func()
43 else:
44 return MyDupeFilter()
45 '''
46 class MyDupeFilter(object):
47 def __init__(self):
48 self.visited = set()
49
50 @classmethod
51 def from_settings(cls, settings):
52 '''读取配置文件'''
53 return cls()
54
55 def request_seen(self, request):
56 '''请求看过没有,这个才是去重规则该调用的方法'''
57 if request.url in self.visited:
58 return True
59 self.visited.add(request.url)
60
61 def open(self): # can return deferred
62 '''打开的时候执行'''
63 pass
64
65 def close(self, reason): # can return a deferred
66 pass
67
68 def log(self, request, spider): # log that a request has been filtered
69 '''日志记录'''
70 pass
71
72 #步骤二:配置文件settings.py
73 # DUPEFILTER_CLASS = 'scrapy.dupefilter.RFPDupeFilter' #默认会去找这个类实现去重
74 #自定义去重规则
75 DUPEFILTER_CLASS = 'AMAZON.cumstomdupefilter.MyDupeFilter'
76
77 # 源码分析:
78 from scrapy.core.scheduler import Scheduler
79 见Scheduler下的enqueue_request方法:self.df.request_seen(request)
去除重复的url
1 #例一:
2 import scrapy
3
4 class MySpider(scrapy.Spider):
5 name = 'example.com'
6 allowed_domains = ['example.com']
7 start_urls = [
8 'http://www.example.com/1.html',
9 'http://www.example.com/2.html',
10 'http://www.example.com/3.html',
11 ]
12
13 def parse(self, response):
14 self.logger.info('A response from %s just arrived!', response.url)
15
16
17 #例二:一个回调函数返回多个Requests和Items
18 import scrapy
19
20 class MySpider(scrapy.Spider):
21 name = 'example.com'
22 allowed_domains = ['example.com']
23 start_urls = [
24 'http://www.example.com/1.html',
25 'http://www.example.com/2.html',
26 'http://www.example.com/3.html',
27 ]
28
29 def parse(self, response):
30 for h3 in response.xpath('//h3').extract():
31 yield {"title": h3}
32
33 for url in response.xpath('//a/@href').extract():
34 yield scrapy.Request(url, callback=self.parse)
35
36
37 #例三:在start_requests()内直接指定起始爬取的urls,start_urls就没有用了,
38
39 import scrapy
40 from myproject.items import MyItem
41
42 class MySpider(scrapy.Spider):
43 name = 'example.com'
44 allowed_domains = ['example.com']
45
46 def start_requests(self):
47 yield scrapy.Request('http://www.example.com/1.html', self.parse)
48 yield scrapy.Request('http://www.example.com/2.html', self.parse)
49 yield scrapy.Request('http://www.example.com/3.html', self.parse)
50
51 def parse(self, response):
52 for h3 in response.xpath('//h3').extract():
53 yield MyItem(title=h3)
54
55 for url in response.xpath('//a/@href').extract():
56 yield scrapy.Request(url, callback=self.parse)
57
58
59 #例四:
60 # -*- coding: utf-8 -*-
61 from urllib.parse import urlencode
62 # from scrapy.dupefilter import RFPDupeFilter
63 # from AMAZON.items import AmazonItem
64 from AMAZON.items import AmazonItem
65 '''
66
67 spiders会循环做下面几件事
68 1、生成初始请求来爬取第一个urls,并且绑定一个回调函数
69 2、在回调函数中,解析response并且返回值
70 3、在回调函数中,解析页面内容(可通过Scrapy自带的Seletors或者BeautifuSoup等)
71 4、最后、针对返回的Items对象(就是你从返回结果中筛选出来自己想要的数据)将会被持久化到数据库
72 Spiders总共提供了五种类:
73 #1、scrapy.spiders.Spider #scrapy.Spider等同于scrapy.spiders.Spider
74 #2、scrapy.spiders.CrawlSpider
75 #3、scrapy.spiders.XMLFeedSpider
76 #4、scrapy.spiders.CSVFeedSpider
77 #5、scrapy.spiders.SitemapSpider
78 '''
79 import scrapy
80 class AmazonSpider(scrapy.Spider):
81 def __init__(self,keyword=None,*args,**kwargs): #在entrypoint文件里面传进来的keyword,在这里接收了
82 super(AmazonSpider,self).__init__(*args,**kwargs)
83 self.keyword = keyword
84
85 name = 'amazon' # 必须唯一
86 allowed_domains = ['www.amazon.cn'] # 允许域
87 start_urls = ['http://www.amazon.cn/'] # 如果你没有指定发送的请求地址,会默认使用只一个
88
89 custom_settings = { # 自定制配置文件,自己设置了用自己的,没有就找父类的
90 "BOT_NAME": 'HAIYAN_AMAZON',
91 'REQUSET_HEADERS': {},
92 }
93
94 def start_requests(self):
95 url = 'https://www.amazon.cn/s/ref=nb_sb_noss_1/461-4093573-7508641?'
96 url+=urlencode({"field-keywords":self.keyword})
97 print(url)
98 yield scrapy.Request(
99 url,
100 callback = self.parse_index, #指定回调函数
101 dont_filter = True, #不去重,这个也可以自己定制
102 # dont_filter = False, #去重,这个也可以自己定制
103 # meta={'a':1} #meta代理的时候会用
104 )
105 #如果要想测试自定义的dont_filter,可多返回结果重复的即可
106
107
108
109 def parse_index(self, response):
110 '''获取详情页和下一页的链接'''
111 detail_urls = response.xpath('//*[contains(@id,"result_")]/div/div[3]/div[1]/a/@href').extract()
112 print(detail_urls)
113 # print("%s 解析 %s",(response.url,(len(response.body))))
114 for detail_url in detail_urls:
115 yield scrapy.Request(
116 url=detail_url,
117 callback=self.parse_detail #记得每次返回response的时候记得绑定一个回调函数
118 )
119 next_url = response.urljoin(response.xpath(response.xpath('//*[@id="pagnNextLink"]/@href').extract_first()))
120 # 因为下一页的url是不完整的,用urljoin就可以吧路径前缀拿到并且拼接
121 # print(next_url)
122 yield scrapy.Request(
123 url=next_url,
124 callback=self.parse_index #因为下一页也属于是索引页,让去解析索引页
125 )
126 def parse_detail(self,response):
127 '''详情页解析'''
128 name = response.xpath('//*[@id="productTitle"]/text()').extract_first().strip()#获取name
129 price = response.xpath('//*[@id="price"]//*[@class="a-size-medium a-color-price"]/text()').extract_first()#获取价格
130 delivery_method=''.join(response.xpath('//*[@id="ddmMerchantMessage"]//text()').extract()) #获取配送方式
131 print(name)
132 print(price)
133 print(delivery_method)
134 #上面是筛选出自己想要的项
135 #必须返回一个Item对象,那么这个item对象,是从item.py中来,和django中的model类似,
136 # 但是这里的item对象也可当做是一个字典,和字典的操作一样
137 item = AmazonItem()# 实例化
138 item["name"] = name
139 item["price"] = price
140 item["delivery_method"] = delivery_method
141 return item
142
143 def close(spider, reason):
144 print("结束啦")
小示例
1 我们可能需要在命令行为爬虫程序传递参数,比如传递初始的url,像这样
2 #命令行执行
3 scrapy crawl myspider -a category=electronics
4
5 #在__init__方法中可以接收外部传进来的参数
6 import scrapy
7
8 class MySpider(scrapy.Spider):
9 name = 'myspider'
10
11 def __init__(self, category=None, *args, **kwargs):
12 super(MySpider, self).__init__(*args, **kwargs)
13 self.start_urls = ['http://www.example.com/categories/%s' % category]
14 #...
15
16
17 #注意接收的参数全都是字符串,如果想要结构化的数据,你需要用类似json.loads的方法
参数传递
Selectors选择器
response.selector.css()
response.selector.xpath()
可简写为
response.css()
response.xpath() #1 //与/
response.xpath('//body/a/')#
response.css('div a::text') >>> response.xpath('//body/a') #开头的//代表从整篇文档中寻找,body之后的/代表body的儿子
[]
>>> response.xpath('//body//a') #开头的//代表从整篇文档中寻找,body之后的//代表body的子子孙孙
[<Selector xpath='//body//a' data='<a href="image1.html">Name: My image 1 <'>, <Selector xpath='//body//a' data='<a href="image2.html">Name: My image 2 <'>, <Selector xpath='//body//a' data='<a href="
image3.html">Name: My image 3 <'>, <Selector xpath='//body//a' data='<a href="image4.html">Name: My image 4 <'>, <Selector xpath='//body//a' data='<a href="image5.html">Name: My image 5 <'>] #2 text
>>> response.xpath('//body//a/text()')
>>> response.css('body a::text') #3、extract与extract_first:从selector对象中解出内容
>>> response.xpath('//div/a/text()').extract()
['Name: My image 1 ', 'Name: My image 2 ', 'Name: My image 3 ', 'Name: My image 4 ', 'Name: My image 5 ']
>>> response.css('div a::text').extract()
['Name: My image 1 ', 'Name: My image 2 ', 'Name: My image 3 ', 'Name: My image 4 ', 'Name: My image 5 '] >>> response.xpath('//div/a/text()').extract_first()
'Name: My image 1 '
>>> response.css('div a::text').extract_first()
'Name: My image 1 ' #4、属性:xpath的属性加前缀@
>>> response.xpath('//div/a/@href').extract_first()
'image1.html'
>>> response.css('div a::attr(href)').extract_first()
'image1.html' #4、嵌套查找
>>> response.xpath('//div').css('a').xpath('@href').extract_first()
'image1.html' #5、设置默认值
>>> response.xpath('//div[@id="xxx"]').extract_first(default="not found")
'not found' #4、按照属性查找
response.xpath('//div[@id="images"]/a[@href="image3.html"]/text()').extract()
response.css('#images a[@href="image3.html"]/text()').extract() #5、按照属性模糊查找
response.xpath('//a[contains(@href,"image")]/@href').extract()
response.css('a[href*="image"]::attr(href)').extract() response.xpath('//a[contains(@href,"image")]/img/@src').extract()
response.css('a[href*="imag"] img::attr(src)').extract() response.xpath('//*[@href="image1.html"]')
response.css('*[href="image1.html"]') #6、正则表达式
response.xpath('//a/text()').re(r'Name: (.*)')
response.xpath('//a/text()').re_first(r'Name: (.*)') #7、xpath相对路径
>>> res=response.xpath('//a[contains(@href,"3")]')[0]
>>> res.xpath('img')
[<Selector xpath='img' data='<img src="data:image3_thumb.jpg">'>]
>>> res.xpath('./img')
[<Selector xpath='./img' data='<img src="data:image3_thumb.jpg">'>]
>>> res.xpath('.//img')
[<Selector xpath='.//img' data='<img src="data:image3_thumb.jpg">'>]
>>> res.xpath('//img') #这就是从头开始扫描
[<Selector xpath='//img' data='<img src="data:image1_thumb.jpg">'>, <Selector xpath='//img' data='<img src="data:image2_thumb.jpg">'>, <Selector xpath='//img' data='<img src="data:image3_thumb.jpg">'>, <Selector xpa
th='//img' data='<img src="data:image4_thumb.jpg">'>, <Selector xpath='//img' data='<img src="data:image5_thumb.jpg">'>] #8、带变量的xpath
>>> response.xpath('//div[@id=$xxx]/a/text()',xxx='images').extract_first()
'Name: My image 1 '
>>> response.xpath('//div[count(a)=$yyy]/@id',yyy=5).extract_first() #求有5个a标签的div的id
'images'
Item Pipeline
自定义pipeline
#一:可以写多个Pipeline类
#1、如果优先级高的Pipeline的process_item返回一个值或者None,会自动传给下一个pipline的process_item,
#2、如果只想让第一个Pipeline执行,那得让第一个pipline的process_item抛出异常raise DropItem() #3、可以用spider.name == '爬虫名' 来控制哪些爬虫用哪些pipeline 二:示范
from scrapy.exceptions import DropItem class CustomPipeline(object):
def __init__(self,v):
self.value = v @classmethod
def from_crawler(cls, crawler):
"""
Scrapy会先通过getattr判断我们是否自定义了from_crawler,有则调它来完
成实例化
"""
val = crawler.settings.getint('MMMM')
return cls(val) def open_spider(self,spider):
"""
爬虫刚启动时执行一次
"""
print('000000') def close_spider(self,spider):
"""
爬虫关闭时执行一次
"""
print('111111') def process_item(self, item, spider):
# 操作并进行持久化 # return表示会被后续的pipeline继续处理
return item # 表示将item丢弃,不会被后续pipeline处理
# raise DropItem()
1 '''
2 #1、settings.py
3 HOST="127.0.0.1"
4 PORT=27017
5 USER="root"
6 PWD="123"
7 DB="amazon"
8 TABLE="goods"
9
10 '''
11 from scrapy.exceptions import DropItem
12 from pymongo import MongoClient
13
14 class MongoPipeline(object):
15 '''2、把解析好的item对象做一个持久化,保存到数据库中'''
16 def __init__(self,db,collection,host,port,user,pwd):
17 self.db = db
18 self.collection = collection #文档(表)
19 self.host = host
20 self.port = port
21 self.user = user
22 self.pwd = pwd
23
24 @classmethod
25 def from_crawler(cls,crawler):
26 '''1、Scrapy会先通过getattr判断我们是否自定义了from_crawler,有则调它来完
27 成实例化'''
28 db = crawler.settings.get("DB")
29 collection = crawler.settings.get("COLLECTION")
30 host = crawler.settings.get("HOST")
31 port = crawler.settings.get("PORT")
32 user = crawler.settings.get("USER")
33 pwd = crawler.settings.get("PWD")
34 return cls(db,collection,host,port,user,pwd) #cls是当前的类,类加括号执行__init__方法
35
36 def open_spider(self,spider):
37 '''3、爬虫刚启动时执行一次'''
38 print('==============>爬虫程序刚刚启动')
39 self.client = MongoClient('mongodb://%s:%s@%s:%s'%(
40 self.user,
41 self.pwd,
42 self.host,
43 self.port
44 ))
45
46 def close_spider(self,spider):
47 '''5、关闭爬虫程序'''
48 print('==============>爬虫程序运行完毕')
49 self.client.close()
50
51 def process_item(self, item, spider):
52 '''4、操作并执行持久化'''
53 # return表示会被后续的pipeline继续处理
54 d = dict(item)
55 if all(d.values()):
56 self.client[self.db][self.collection].save(d) #保存到数据库
57 return item
58 # 表示将item丢弃,不会被后续pipeline处理
59 # raise DropItem()
60
61
62
63 class FilePipeline(object):
64 def __init__(self, file_path):
65 self.file_path=file_path
66
67 @classmethod
68 def from_crawler(cls, crawler):
69 """
70 Scrapy会先通过getattr判断我们是否自定义了from_crawler,有则调它来完
71 成实例化
72 """
73 file_path = crawler.settings.get('FILE_PATH')
74
75
76 return cls(file_path)
77
78 def open_spider(self, spider):
79 """
80 爬虫刚启动时执行一次
81 """
82 print('==============>爬虫程序刚刚启动')
83 self.fileobj=open(self.file_path,'w',encoding='utf-8')
84
85 def close_spider(self, spider):
86 """
87 爬虫关闭时执行一次
88 """
89 print('==============>爬虫程序运行完毕')
90 self.fileobj.close()
91
92 def process_item(self, item, spider):
93 # 操作并进行持久化
94
95 # return表示会被后续的pipeline继续处理
96 d = dict(item)
97 if all(d.values()):
98 self.fileobj.write(r"%s\n" %str(d))
99
100 return item
101
102 # 表示将item丢弃,不会被后续pipeline处理
103 # raise DropItem()
示范
Downloader Middleware下载中间件
用途
1、在process——request内,自定义下载,不用scrapy的下载
2、对请求进行二次加工,比如
设置请求头
设置cookie
添加代理
scrapy自带的代理组件:
from scrapy.downloadermiddlewares.httpproxy import HttpProxyMiddleware
from urllib.request import getproxies
写下载器中间件
1 class DownMiddleware1(object):
2 def process_request(self, request, spider):
3 """
4 请求需要被下载时,经过所有下载器中间件的process_request调用
5 :param request:
6 :param spider:
7 :return:
8 None,继续后续中间件去下载;
9 Response对象,停止process_request的执行,开始执行process_response
10 Request对象,停止中间件的执行,将Request重新调度器
11 raise IgnoreRequest异常,停止process_request的执行,开始执行process_exception
12 """
13 pass
14
15
16
17 def process_response(self, request, response, spider):
18 """
19 spider处理完成,返回时调用
20 :param response:
21 :param result:
22 :param spider:
23 :return:
24 Response 对象:转交给其他中间件process_response
25 Request 对象:停止中间件,request会被重新调度下载
26 raise IgnoreRequest 异常:调用Request.errback
27 """
28 print('response1')
29 return response
30
31 def process_exception(self, request, exception, spider):
32 """
33 当下载处理器(download handler)或 process_request() (下载中间件)抛出异常
34 :param response:
35 :param exception:
36 :param spider:
37 :return:
38 None:继续交给后续中间件处理异常;
39 Response对象:停止后续process_exception方法
40 Request对象:停止中间件,request将会被重新调用下载
41 """
42 return None
配置
DOWNLOADER_MIDDLEWARES = {
#'xdb.middlewares.XdbDownloaderMiddleware': 543,
# 'xdb.proxy.XdbProxyMiddleware':751,
'xdb.md.Md1':666,
'xdb.md.Md2':667,
}
应用
- user-agent
- 代理
Spider Middleware爬虫中间件
1 class SpiderMiddleware(object):
2
3 def process_spider_input(self,response, spider):
4 """
5 下载完成,执行,然后交给parse处理
6 :param response:
7 :param spider:
8 :return:
9 """
10 pass
11
12 def process_spider_output(self,response, result, spider):
13 """
14 spider处理完成,返回时调用
15 :param response:
16 :param result:
17 :param spider:
18 :return: 必须返回包含 Request 或 Item 对象的可迭代对象(iterable)
19 """
20 return result
21
22 def process_spider_exception(self,response, exception, spider):
23 """
24 异常调用
25 :param response:
26 :param exception:
27 :param spider:
28 :return: None,继续交给后续中间件处理异常;含 Response 或 Item 的可迭代对象(iterable),交给调度器或pipeline
29 """
30 return None
31
32
33 def process_start_requests(self,start_requests, spider):
34 """
35 爬虫启动时调用
36 :param start_requests:
37 :param spider:
38 :return: 包含 Request 对象的可迭代对象
39 """
40 return start_requests
配置
SPIDER_MIDDLEWARES = {
# 'xdb.middlewares.XdbSpiderMiddleware': 543,
'xdb.sd.Sd1': 666,
'xdb.sd.Sd2': 667,
}
应用
- 深度
- 优先级
自定制命令
单爬虫运行
import sys
from scrapy.cmdline import execute if __name__ == '__main__':
execute(["scrapy","crawl","chouti","--nolog"])
所有爬虫
- 在spiders同级创建任意目录,如:commands
- 在其中创建 crawlall.py 文件 (此处文件名就是自定义的命令)
from scrapy.commands import ScrapyCommand
from scrapy.utils.project import get_project_settings class Command(ScrapyCommand): requires_project = True def syntax(self):
return '[options]' def short_desc(self):
return 'Runs all of the spiders' def run(self, args, opts):
spider_list = self.crawler_process.spiders.list()
for name in spider_list:
self.crawler_process.crawl(name, **opts.__dict__)
self.crawler_process.start()
crawlall.py
- 在settings.py 中添加配置 COMMANDS_MODULE = '项目名称.目录名称'
- 在项目目录执行命令:scrapy crawlall
自定义扩展(信号)
scrapy自定义扩展的好处是可以在任意我们想要的位置添加功能,而其他组件中提供的功能只能在规定的位置执行
1 #1、在与settings同级目录下新建一个文件,文件名可以为extentions.py,内容如下
2 from scrapy import signals
3
4
5 class MyExtension(object):
6 def __init__(self, value):
7 self.value = value
8
9 @classmethod
10 def from_crawler(cls, crawler):
11 val = crawler.settings.getint('MMMM')
12 obj = cls(val)
13
14 crawler.signals.connect(obj.spider_opened, signal=signals.spider_opened)
15 crawler.signals.connect(obj.spider_closed, signal=signals.spider_closed)
16
17 return obj
18
19 def spider_opened(self, spider):
20 print('=============>open')
21
22 def spider_closed(self, spider):
23 print('=============>close')
24
25 #2、配置生效
26 EXTENSIONS = {
27 "Amazon.extentions.MyExtension":200
28 }
settings.py
1 #==>第一部分:基本配置<===
2 #1、项目名称,默认的USER_AGENT由它来构成,也作为日志记录的日志名
3 BOT_NAME = 'Amazon'
4
5 #2、爬虫应用路径
6 SPIDER_MODULES = ['Amazon.spiders']
7 NEWSPIDER_MODULE = 'Amazon.spiders'
8
9 #3、客户端User-Agent请求头
10 #USER_AGENT = 'Amazon (+http://www.yourdomain.com)'
11
12 #4、是否遵循爬虫协议
13 # Obey robots.txt rules
14 ROBOTSTXT_OBEY = False
15
16 #5、是否支持cookie,cookiejar进行操作cookie,默认开启
17 #COOKIES_ENABLED = False
18
19 #6、Telnet用于查看当前爬虫的信息,操作爬虫等...使用telnet ip port ,然后通过命令操作
20 #TELNETCONSOLE_ENABLED = False
21 #TELNETCONSOLE_HOST = '127.0.0.1'
22 #TELNETCONSOLE_PORT = [6023,]
23
24 #7、Scrapy发送HTTP请求默认使用的请求头
25 #DEFAULT_REQUEST_HEADERS = {
26 # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
27 # 'Accept-Language': 'en',
28 #}
29
30
31
32 #===>第二部分:并发与延迟<===
33 #1、下载器总共最大处理的并发请求数,默认值16
34 #CONCURRENT_REQUESTS = 32
35
36 #2、每个域名能够被执行的最大并发请求数目,默认值8
37 #CONCURRENT_REQUESTS_PER_DOMAIN = 16
38
39 #3、能够被单个IP处理的并发请求数,默认值0,代表无限制,需要注意两点
40 #I、如果不为零,那CONCURRENT_REQUESTS_PER_DOMAIN将被忽略,即并发数的限制是按照每个IP来计算,而不是每个域名
41 #II、该设置也影响DOWNLOAD_DELAY,如果该值不为零,那么DOWNLOAD_DELAY下载延迟是限制每个IP而不是每个域
42 #CONCURRENT_REQUESTS_PER_IP = 16
43
44 #4、如果没有开启智能限速,这个值就代表一个规定死的值,代表对同一网址延迟请求的秒数
45 #DOWNLOAD_DELAY = 3
46
47
48
49 #===>第三部分:智能限速/自动节流:AutoThrottle extension<===
50 #一:介绍
51 from scrapy.contrib.throttle import AutoThrottle #http://scrapy.readthedocs.io/en/latest/topics/autothrottle.html#topics-autothrottle
52 设置目标:
53 1、比使用默认的下载延迟对站点更好
54 2、自动调整scrapy到最佳的爬取速度,所以用户无需自己调整下载延迟到最佳状态。用户只需要定义允许最大并发的请求,剩下的事情由该扩展组件自动完成
55
56
57 #二:如何实现?
58 在Scrapy中,下载延迟是通过计算建立TCP连接到接收到HTTP包头(header)之间的时间来测量的。
59 注意,由于Scrapy可能在忙着处理spider的回调函数或者无法下载,因此在合作的多任务环境下准确测量这些延迟是十分苦难的。 不过,这些延迟仍然是对Scrapy(甚至是服务器)繁忙程度的合理测量,而这扩展就是以此为前提进行编写的。
60
61
62 #三:限速算法
63 自动限速算法基于以下规则调整下载延迟
64 #1、spiders开始时的下载延迟是基于AUTOTHROTTLE_START_DELAY的值
65 #2、当收到一个response,对目标站点的下载延迟=收到响应的延迟时间/AUTOTHROTTLE_TARGET_CONCURRENCY
66 #3、下一次请求的下载延迟就被设置成:对目标站点下载延迟时间和过去的下载延迟时间的平均值
67 #4、没有达到200个response则不允许降低延迟
68 #5、下载延迟不能变的比DOWNLOAD_DELAY更低或者比AUTOTHROTTLE_MAX_DELAY更高
69
70 #四:配置使用
71 #开启True,默认False
72 AUTOTHROTTLE_ENABLED = True
73 #起始的延迟
74 AUTOTHROTTLE_START_DELAY = 5
75 #最小延迟
76 DOWNLOAD_DELAY = 3
77 #最大延迟
78 AUTOTHROTTLE_MAX_DELAY = 10
79 #每秒并发请求数的平均值,不能高于 CONCURRENT_REQUESTS_PER_DOMAIN或CONCURRENT_REQUESTS_PER_IP,调高了则吞吐量增大强奸目标站点,调低了则对目标站点更加”礼貌“
80 #每个特定的时间点,scrapy并发请求的数目都可能高于或低于该值,这是爬虫视图达到的建议值而不是硬限制
81 AUTOTHROTTLE_TARGET_CONCURRENCY = 16.0
82 #调试
83 AUTOTHROTTLE_DEBUG = True
84 CONCURRENT_REQUESTS_PER_DOMAIN = 16
85 CONCURRENT_REQUESTS_PER_IP = 16
86
87
88
89 #===>第四部分:爬取深度与爬取方式<===
90 #1、爬虫允许的最大深度,可以通过meta查看当前深度;0表示无深度
91 # DEPTH_LIMIT = 3
92
93 #2、爬取时,0表示深度优先Lifo(默认);1表示广度优先FiFo
94
95 # 后进先出,深度优先
96 # DEPTH_PRIORITY = 0
97 # SCHEDULER_DISK_QUEUE = 'scrapy.squeue.PickleLifoDiskQueue'
98 # SCHEDULER_MEMORY_QUEUE = 'scrapy.squeue.LifoMemoryQueue'
99 # 先进先出,广度优先
100
101 # DEPTH_PRIORITY = 1
102 # SCHEDULER_DISK_QUEUE = 'scrapy.squeue.PickleFifoDiskQueue'
103 # SCHEDULER_MEMORY_QUEUE = 'scrapy.squeue.FifoMemoryQueue'
104
105
106 #3、调度器队列
107 # SCHEDULER = 'scrapy.core.scheduler.Scheduler'
108 # from scrapy.core.scheduler import Scheduler
109
110 #4、访问URL去重
111 # DUPEFILTER_CLASS = 'step8_king.duplication.RepeatUrl'
112
113
114
115 #===>第五部分:中间件、Pipelines、扩展<===
116 #1、Enable or disable spider middlewares
117 # See http://scrapy.readthedocs.org/en/latest/topics/spider-middleware.html
118 #SPIDER_MIDDLEWARES = {
119 # 'Amazon.middlewares.AmazonSpiderMiddleware': 543,
120 #}
121
122 #2、Enable or disable downloader middlewares
123 # See http://scrapy.readthedocs.org/en/latest/topics/downloader-middleware.html
124 DOWNLOADER_MIDDLEWARES = {
125 # 'Amazon.middlewares.DownMiddleware1': 543,
126 }
127
128 #3、Enable or disable extensions
129 # See http://scrapy.readthedocs.org/en/latest/topics/extensions.html
130 #EXTENSIONS = {
131 # 'scrapy.extensions.telnet.TelnetConsole': None,
132 #}
133
134 #4、Configure item pipelines
135 # See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.html
136 ITEM_PIPELINES = {
137 # 'Amazon.pipelines.CustomPipeline': 200,
138 }
139
140
141
142 #===>第六部分:缓存<===
143 """
144 1. 启用缓存
145 目的用于将已经发送的请求或相应缓存下来,以便以后使用
146
147 from scrapy.downloadermiddlewares.httpcache import HttpCacheMiddleware
148 from scrapy.extensions.httpcache import DummyPolicy
149 from scrapy.extensions.httpcache import FilesystemCacheStorage
150 """
151 # 是否启用缓存策略
152 # HTTPCACHE_ENABLED = True
153
154 # 缓存策略:所有请求均缓存,下次在请求直接访问原来的缓存即可
155 # HTTPCACHE_POLICY = "scrapy.extensions.httpcache.DummyPolicy"
156 # 缓存策略:根据Http响应头:Cache-Control、Last-Modified 等进行缓存的策略
157 # HTTPCACHE_POLICY = "scrapy.extensions.httpcache.RFC2616Policy"
158
159 # 缓存超时时间
160 # HTTPCACHE_EXPIRATION_SECS = 0
161
162 # 缓存保存路径
163 # HTTPCACHE_DIR = 'httpcache'
164
165 # 缓存忽略的Http状态码
166 # HTTPCACHE_IGNORE_HTTP_CODES = []
167
168 # 缓存存储的插件
169 # HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'
爬虫 之 scrapy框架的更多相关文章
- Python网络爬虫之Scrapy框架(CrawlSpider)
目录 Python网络爬虫之Scrapy框架(CrawlSpider) CrawlSpider使用 爬取糗事百科糗图板块的所有页码数据 Python网络爬虫之Scrapy框架(CrawlSpider) ...
- 爬虫06 /scrapy框架
爬虫06 /scrapy框架 目录 爬虫06 /scrapy框架 1. scrapy概述/安装 2. 基本使用 1. 创建工程 2. 数据分析 3. 持久化存储 3. 全栈数据的爬取 4. 五大核心组 ...
- Python逆向爬虫之scrapy框架,非常详细
爬虫系列目录 目录 Python逆向爬虫之scrapy框架,非常详细 一.爬虫入门 1.1 定义需求 1.2 需求分析 1.2.1 下载某个页面上所有的图片 1.2.2 分页 1.2.3 进行下载图片 ...
- 爬虫之scrapy框架
解析 Scrapy解释 Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架. 其可以应用在数据挖掘,信息处理或存储历史数据等一系列的程序中.其最初是为了页面抓取 (更确切来说, 网络抓 ...
- Python爬虫进阶(Scrapy框架爬虫)
准备工作: 配置环境问题什么的我昨天已经写了,那么今天直接安装三个库 首先第一步: ...
- 爬虫之Scrapy框架介绍
Scrapy介绍 Scrapy是用纯Python实现一个为了爬取网站数据.提取结构性数据而编写的应用框架,用途非常广泛. 框架的力量,用户只需要定制开发几个模块就可以轻松的实现一个爬虫,用来抓取网页内 ...
- 16.Python网络爬虫之Scrapy框架(CrawlSpider)
引入 提问:如果想要通过爬虫程序去爬取”糗百“全站数据新闻数据的话,有几种实现方法? 方法一:基于Scrapy框架中的Spider的递归爬取进行实现(Request模块递归回调parse方法). 方法 ...
- python爬虫随笔-scrapy框架(1)——scrapy框架的安装和结构介绍
scrapy框架简介 Scrapy,Python开发的一个快速.高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据.Scrapy用途广泛,可以用于数据挖掘.监测和自动化测试 ...
- 5、爬虫之scrapy框架
一 scrapy框架简介 1 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前Sc ...
- Python学习---爬虫学习[scrapy框架初识]
Scrapy Scrapy是一个框架,可以帮助我们进行创建项目,运行项目,可以帮我们下载,解析网页,同时支持cookies和自定义其他功能. Scrapy是一个为了爬取网站数据,提取结构性数据而编写的 ...
随机推荐
- cowboy的cookie和session的例子
session插件需要下载https://github.com/chvanikoff/cowboy_session 如果session需要分布式存储,可以参考https://github.com/sp ...
- (转)Inno Setup入门(七)——提供安装语言选项
本文转载自:http://blog.csdn.net/yushanddddfenghailin/article/details/17250803 Inno Setup安装目录下有一个Languages ...
- k8s1.4.3安装实践记录(3)下载基础镜像
下载基础镜像,因为Google被墙,所以我们用时速云中的镜像来tag docker pull index.tenxcloud.com/google_containers/pause-amd64:3.0 ...
- python接口自动化22-签名(signature)鉴权(authentication)之加密(HEX、MD5、HMAC-SHA256)
前言 开放的接口为了避免被别人乱调用,浪费服务器资源,这就涉及到签名(Signature)加密了 API 使用签名方法(Signature)对接口进行鉴权(Authentication).每一次请求都 ...
- java代码----I/O流从控制台输入信息判断并抛出异常
package com.a.b; import java.io.*; public class Yu { public static void main(String[] args) throws I ...
- iRedMail的搭建过程记录
iRedMail的搭建和注意事项 经过一段时间的折腾,终于将iRedMail搭建起来了,下面介绍一下搭建的过程,以及注意事项. 注意事项: 1. iRedMail不支持重复安装,如果安装错误,请重置 ...
- hadoop map端的超时参数
目前集群上某台机器卡住导致出现大量的Map端任务FAIL,当定位到具体的机器上时,无法ssh或进去后terminal中无响应,退出的相关信息如下: [hadoop@xxx ~]$ Received d ...
- ThinkPHP 目录结构
2.0 ThinkPHP 目录结构 在前面的博客中,通过一个简单的案例向大家演示了在ThinkPHP 框架下开发的大致法程,本篇博客将对ThinkPHP框架目录结构进行详细讲解. 要想在项目中熟练地使 ...
- Druid.io系列(八):部署
介绍 前面几个章节对Druid的整体架构做了简单的说明,本文主要描述如何部署Druid的环境 Imply提供了一套完整的部署方式,包括依赖库,Druid,图形化的数据展示页面,SQL查询组件等.本文将 ...
- <<杰克.韦尔奇自传>>
<<杰克.韦尔奇自传>> 这本书号称是管理学十大经典名著,也是HR老师推荐的一本书.花了几个月时间断断续续拜读了这本书. GE是伟大的公司,杰克韦尔奇是伟大的CEO,这都毋庸置 ...