Python爬虫加速神器的小试
大名鼎鼎的aiohttp,相信如果你学习Python或者爬虫的时候,肯定听说过这个东西。没听过也不要紧,今天看完文章,只要记住,aiohttp这个东西,在写爬虫的时候,很牛逼就行了。
aiohttp 就是一个用 asyncio实现的 HTTP client/server。 你可以通过它来简单实现一个具有异步处理功能的 clients 和 servers。 aiohttp同时还支持 Server WebSockets 和 Client WebSockets,让你使用起来更加简单。
今天,皮爷就带你来体验一下,这个“爬虫加速器”。
0x00 我们的爬虫需求
皮爷最近在做一个项目,就是用微信小程序追美剧的项目,那么首先,我们得需要有一个所有美剧的来源,恰巧,下面这个排行榜就有我们所有需要的信息:
http://www.ttmeiju.vip/index.php/summary/index/p/1.html
![](https://pics6.baidu.com/feed/96dda144ad345982f809ebda7d6f49a9caef8412.jpeg?token=ad1d23e25003abed1f52d13907de4ace&s=6200F40A16BE33A9208C08DE0300C0A2)
初级要求
我们很简单,就是需要从【第一页】:
http://www.ttmeiju.vip/index.php/summary/index/p/1.html
一直爬到最后一页【第三十五页】:
http://www.ttmeiju.vip/index.php/summary/index/p/35.html
中级要求
由于排行榜页面没有美剧的【季】信息,这个必须进入详情页来做,所以,中级要求就是针对每一条美剧,进入详情页,从里面爬取出来当前美剧的【季】信息。
![](https://pics5.baidu.com/feed/241f95cad1c8a786141d8a831792b13971cf50ac.jpeg?token=357bee3a613e499d17596d2d1ef560db&s=36D6EC32CFE85D0316C9D5DB00000031)
这个要求不难吧?就是一级页面变换 page number 的数值来爬取信息。就算要爬取【季】信息,我们的爬虫深度也就才两级。
所以,这个需求不难。而且网页都是静态资源,一般简单的爬虫程序就能hou住。
0x01 撸码前的整理
这一步,我们需要想想通过什么样的方法能够实现上面的需求。
熟悉皮爷的童鞋都知道,皮爷之前的爬虫程序主要用 Scrapy 这个框架。为啥主要用这个?主要这个是一个框架。框架的意思就是写起来简单。何为简单?你只需要专注写爬虫的相关逻辑部分就好,不需要管理程序的生命周期,代码控制之类的问题,因为框架都给你整理好了。
那么,我们的需求就可以用两种做法来搞:
用 Scrapy 来写。自己写爬虫,但是要用到 aiohttp 的东西。下面皮爷就简单为大家来说一下他们是怎么实现的,以及最后对比结果。
0x02 Scrapy撸发撸起来
scrapy的写法,皮爷之前写过很多遍了,具体的教学文章,可以参考皮爷之前写的:
基于云服务的网站种子采集器,还能发送到邮箱,你不来考虑一下?
这里,我们就直接开始说具体的实现代码了。代码实现的就是从1页爬取到35页面,先不考虑“两层爬取”的数据。
class TtmjspiderSpider(scrapy.Spider):name = '皮爷spider' root_url = "http://www.ttmeiju.vip" def start_requests(self): start_url = "http://www.ttmeiju.vip/index.php/summary/index/p/1.html" yield Request(url=start_url, callback=self.parse_page, dont_filter=True, meta={"cur_page": 1, "max_page_num": -1}) def parse_page(self, response):content = response.body soup = BeautifulSoup(content, "html.parser")cur_page = response.meta["cur_page"] cur_url = response.urlmax_page_num = response.meta["max_page_num"] # 第一页找top3的标签rank_top_3_div = soup.find_all(name="div", attrs={"class": "ranktop3"}) for item in rank_top_3_div: link_a = item.find_all(name="a")[0] tv_url = self.root_url + link_a["href"] tv_name = link_a.text tv_rank_num = item.find_all(name="div", attrs={"class": "ranknum"})[0].text play_info_div = item.find_all(name="div", attrs={"class": "mjinfo"}) play_info_one = play_info_div[0].text play_info_two = play_info_div[1].text tv_category = play_info_one.split("/")[0].strip() tv_status = play_info_one.split("/")[1].strip()tv_update_day = play_info_one.split("/")[2].split(":")[-1].strip() temp_result = re.findall("\d{4}-\d{2}-\d{2}", play_info_two) if len(temp_result) != 0:tv_return_date = temp_result[0] else: tv_return_date = "暂无" # 构建 itemtv_item = TtmjTvPlayItem() tv_item["tv_play_name"] = tv_nametv_item["tv_play_rank"] = int(tv_rank_num) tv_item["tv_play_category"] = tv_category tv_item["tv_play_state"] = tv_statustv_item["tv_play_update_day"] = tv_update_daytv_item["tv_play_return_date"] = tv_return_date tv_item["tv_play_url"] = tv_url tv_item["tv_play_cur_season"] = 0 yield tv_item # 正常信息列表content_div = soup.find_all(name="tr", attrs={"class": re.compile(r"Scontent")}) for item in content_div: td_list = item.find_all(name="td") tv_rank_num = td_list[0].text link_a = td_list[1].find(name="a") tv_url = self.root_url + link_a["href"] tv_name = link_a.text tv_category = td_list[2].text.strip() tv_status = td_list[3].text.strip()tv_update_day = td_list[4].text.strip() tv_return_date = td_list[5].text.strip()tv_item = TtmjTvPlayItem() tv_item["tv_play_name"] = tv_nametv_item["tv_play_rank"] = int(tv_rank_num) tv_item["tv_play_category"] = tv_category tv_item["tv_play_state"] = tv_statustv_item["tv_play_update_day"] = tv_update_daytv_item["tv_play_return_date"] = tv_return_date tv_item["tv_play_url"] = tv_url tv_item["tv_play_cur_season"] = 0 yield tv_item next_page_ul = soup.find_all(name="ul", attrs={"class": "pagination"}) if len(next_page_ul) != 0: last_page_a = next_page_ul[0].find_all(name="a", attrs={"class": "end"}) if len(last_page_a) != 0 and max_page_num == -1: max_page_num = last_page_a[0].text if int(cur_page) < int(max_page_num):next_page_num = int(cur_page) + 1 else: logging.info("ALl finished") returnnext_page_url = cur_url[:-(len(cur_url.split("/")[-1]))] + str(next_page_num) + ".html" yield Request(url=next_page_url, callback=self.parse_page, dont_filter=True, meta={"cur_page": next_page_num, "max_page_num": max_page_num})
代码简单说一下,通过 【Chrome】--【检查】页面,看到我们要找的列表信息标签。
![](https://pics0.baidu.com/feed/f3d3572c11dfa9ec779d21ab104b8f07908fc17f.jpeg?token=cfcb2f9e70314cf672a8401197d2456c&s=4C80E5121C7F6088364508D90300A0B2)
![](https://pics5.baidu.com/feed/d0c8a786c9177f3ece8fee44045443c39e3d565b.jpeg?token=a2efa8050201695854730917b385dae0&s=3092643217C9554B18FCD1DA000050B3)
然后,通过 BeautifulSoup 来解析找到相对应的文字,并且解析成我们想要得到的 Scrapy Item ,最后在 pipeline 里面做存入数据库的操作。
那我们接下来就运行一下这个 Scrapy 框架写的爬取 35 页信息的爬虫,看看效果如何。
![](https://pics3.baidu.com/feed/ca1349540923dd5492ff677ba092cbda9d8248b1.jpeg?token=1b69d582ca40eb0bcaf5e1f3fd9c2ac8&s=E29013C21AB5904F1651FC8F02003081)
数据库里面看到已经存入了数据:
![](https://pics4.baidu.com/feed/902397dda144ad3440cddf7ebf3974f030ad857c.jpeg?token=38f3a5063e0f772af12018a119ec69bd&s=07987C231F4C50C80C75E4DF000080B3)
从结果里面看到,用 Scrapy ,没有修改 setting.py 文件,爬取 35 页数据,然后生成 Scrap.Item ,总共用了 2 分 10 秒。成绩还可以哈。
0x03 aiohttp撸法撸起来
这里,皮爷用网上的一张图来给大家看一下 aiohttp 的流程:
![](https://pics6.baidu.com/feed/267f9e2f070828383a2ce539c802d1054c08f11d.jpeg?token=0f6ee0860f9a54485d27da1ec5ebf41d&s=A573769605924D605C7D324A030050F5)
其实 aiohttp 就是讲事件进入一个队列,然后挨个调用执行,这些任务有个共同的特点,就是他们需要等待操作。所以,在等待的过程中,程序会调起其他任务接着执行。
我们来看代码:
sem = asyncio.Semaphore(80) # 信号量,控制协程数,防止爬的过快client = pymongo.MongoClient("mongodb://xx.xx.xx.xx/", xxx)db = client["xxx"]ttmj_collection = db["xxx"]result_dict = list()def generateRequestList(url, start, end):page_list = list() for i in range(start, end): genUrl = url.replace("**", str(i)) page_list.append(genUrl) return page_listasync def grab_page(url): with(await sem): async with aiohttp.ClientSession() as session: content = await fetch(session, url, 0)async def fetch(session, url, level, tv_item=None): async with session.get(url) as req: content = await req.text() soup = BeautifulSoup(content, "html.parser") root_url = "http://www.ttmeiju.vip"cur_time_string = datetime.datetime.now().strftime('%Y-%m-%d')rank_top_3_div = soup.find_all(name="div", attrs={"class": "ranktop3"}) for item in rank_top_3_div: link_a = item.find_all(name="a")[0] tv_url = root_url + link_a["href"] tv_name = link_a.text tv_rank_num = item.find_all(name="div", attrs={"class": "ranknum"})[0].text play_info_div = item.find_all(name="div", attrs={"class": "mjinfo"}) play_info_one = play_info_div[0].text play_info_two = play_info_div[1].text tv_category = play_info_one.split("/")[0].strip() tv_status = play_info_one.split("/")[1].strip()tv_update_day = play_info_one.split("/")[2].split(":")[-1].strip() temp_result = re.findall("\d{4}-\d{2}-\d{2}", play_info_two) if len(temp_result) != 0:tv_return_date = temp_result[0] else: tv_return_date = "暂无" tv_item = TtmjTvPlayItem() tv_item.tv_play_name = tv_name tv_item.tv_play_rank = int(tv_rank_num) tv_item.tv_play_category = tv_categorytv_item.tv_play_state = tv_status tv_item.tv_play_update_day = tv_update_day tv_item.tv_play_return_date = tv_return_datetv_item.tv_play_update_time = cur_time_string tv_item.tv_play_url = tv_urltv_item_dict = dict( (name, getattr(tv_item, name)) for name in dir(tv_item) if not name.startswith('__')) # print("complete Item: %s" % (tv_item.tv_play_name)) result_dict.append(tv_item_dict) # await fetch(session, tv_url, 1, tv_item) content_div = soup.find_all(name="tr", attrs={"class": re.compile(r"Scontent")}) for item in content_div: td_list = item.find_all(name="td") tv_rank_num = td_list[0].text link_a = td_list[1].find(name="a") tv_url = root_url + link_a["href"] tv_name = link_a.text tv_category = td_list[2].text.strip() tv_status = td_list[3].text.strip()tv_update_day = td_list[4].text.strip() tv_return_date = td_list[5].text.strip()tv_item = TtmjTvPlayItem() tv_item.tv_play_name = tv_nametv_item.tv_play_name_en = tv_url.split("/")[-1].replace(".", " ")[:-5]tv_item.tv_play_name_en_dot = tv_url.split("/")[-1][:-5]tv_item.tv_play_name_ch = tv_name.split(" ")[0] tv_item.tv_play_rank = int(tv_rank_num) tv_item.tv_play_category = tv_categorytv_item.tv_play_state = tv_status tv_item.tv_play_update_day = tv_update_day tv_item.tv_play_return_date = tv_return_datetv_item.tv_play_url = tv_url tv_item.tv_play_cur_season = 0 tv_item_dict = dict( (name, getattr(tv_item, name)) for name in dir(tv_item) if not name.startswith('__')) print("complete Item: %s" % (tv_item.tv_play_name))result_dict.append(tv_item_dict)def main_grab(page_list): loop = asyncio.get_event_loop() # 获取事件循环 tasks = [grab_page(url) for url in page_list] # 把所有任务放到一个列表中loop.run_until_complete(asyncio.wait(tasks)) # 激活协程 loop.close() # 关闭事件循环def writeToDb(): for tv_item in result_dict:ttmj_collection.insert(tv_item) print("insert item: " + tv_item["tv_play_name"]) client.close()if __name__ == '__main__': start_url = "http://www.ttmeiju.vip/index.php/summary/index/p/**.html" page_list = generateRequestList(start_url, 1, 36) start = time.time()main_grab(page_list) print('爬取总耗时:%.5f秒' % float(time.time() - start))writeToDb() print('总耗时:%.5f秒' % float(time.time() - start))
aiohttp的关键写法,就是在开头,得声明信号量,这里皮爷申请的是 80 个。
接着就是 main_grab 方法中,开始调用 aiohttp。 aiohttp的方法,都需要以
async def
开头来定义,其中,需要等待的地方,可以用
await
来写。皮爷的这个代码,你完全可以照猫画虎的写出自己的逻辑。如果还有什么不懂的,自己百度或者谷歌搜索 aiohttp 就可以,网上例子一大堆,都很简单,看了也没啥用。还不如实际的撸个项目,加深体验。
我们来看结果,爬取35个网页总共用了 2 秒多:
![](https://pics2.baidu.com/feed/b03533fa828ba61e310fd27430afef0e314e5923.jpeg?token=6729a59f0573e6bb6d8d24e7c0c73b7c&s=20F2E325CBE4B45344C8550F0000E0C0)
你没看错,单纯的爬取网页,就 2 秒。
数据库中是:
![](https://pics3.baidu.com/feed/96dda144ad345982220325f17d6f49a9caef846c.jpeg?token=057fa74b41518582d6def785e75e6350&s=07887C23154C40E80C75E5DF0000D0B3)
插入数据库,皮爷是一条一条插入的,所以这个耗时很严重,导致整个工程运行了 35 秒:
![](https://pics0.baidu.com/feed/77094b36acaf2eddeb3a3481e28b79ed3801932a.jpeg?token=9191af304f083b8cfdf516c940d1b404&s=A0F2E323C3F088730ED031030000E0C0)
从之前的 130 秒,到现在的 35 秒,你说速度是不是快了很多???你说快不快?是不是比刘翔还快??接下来快看骚操作怎么搞。
0x04 骚操作福利
骚操作,就要骚起来。你看皮爷用 aiohttp 写的Python运行起来是不是很给力?不但爬取数据,还能将数据结果存储到服务器里面。你有没有想过,这个代码是不是可以放到服务器上面让服务器自己跑???
答案当然是:可以的!!!
没错,你以后写的 py 文件,均可以放到服务器上面自动执行。不再需要像现在这样,自己写了代码,在ide里面跑一边之后,就荒废了。
那么问题来了,首先,你是不是得有个服务器啊?皮爷不亏待你们,特意给你们准备了优惠券,有没有的都可以来领取。
阿里云部分: 【阿里云新人1888元云产品通用代金券】: https://promotion.aliyun.com/ntms/yunparter/invite.html?userCode=nrkmbo9q【阿里云爆款云主机,2折优惠券】:https://promotion.aliyun.com/ntms/act/qwbk.html?userCode=nrkmbo9q【阿里云企业级服务器2折优惠券】:https://promotion.aliyun.com/ntms/act/enterprise-discount.html?userCode=nrkmbo9q腾讯云:【新客户无门槛领取总价值高达2775元代金券,每种代金券限量500张,先到先得】:https://cloud.tencent.com/redirect.php?redirect=1025&cps_key=b351b2fc50b15866ff9d19b58a5df0f5&from=console【腾讯云服务器、云数据库特惠,3折优惠券】:https://cloud.tencent.com/redirect.php?redirect=1014&cps_key=b351b2fc50b15866ff9d19b58a5df0f5&from=console
有了服务器,那么将本地文件上传到服务器上面,只需要用
scp
命令就好:
$ scp <本地文件路径> <服务器角色>@<服务器ip地址>:<服务器文件路径>
上传代码参考文章
那么怎么定是执行呢?服务器一般都是 linux 系统,linux 系统自带一个命令叫
crontab
,用这个命令就可以定制执行了。
这一套组合拳打下来,你说骚不骚?
0x05 最后总结
爬虫用 aiohttp 来写还是用 Scrapy 来写,自己定夺,他们各有各的好处。
Scrapy框架完整,结果清晰;
aiohttp 速度更快,非常灵活。
所以,想用什么写爬虫,要根据你自己的需求来定。但是皮爷最近搞的东西,打算用 aiohttp 来自己做一套框架,来专门为自己使用。
Python爬虫加速神器的小试的更多相关文章
- Python爬虫之使用celery加速爬虫
celery是一个基于分布式消息传输的异步任务队列,它专注于实时处理,同时也支持任务调度.关于celery的更多介绍及例子,笔者可以参考文章Python之celery的简介与使用. 本文将介绍 ...
- python爬虫学习(6) —— 神器 Requests
Requests 是使用 Apache2 Licensed 许可证的 HTTP 库.用 Python 编写,真正的为人类着想. Python 标准库中的 urllib2 模块提供了你所需要的大多数 H ...
- 小白学 Python 爬虫(4):前置准备(三)Docker基础入门
人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...
- Python爬虫入门一之综述
大家好哈,最近博主在学习Python,学习期间也遇到一些问题,获得了一些经验,在此将自己的学习系统地整理下来,如果大家有兴趣学习爬虫的话,可以将这些文章作为参考,也欢迎大家一共分享学习经验. Pyth ...
- python爬虫学习 —— 总目录
开篇 作为一个C党,接触python之后学习了爬虫. 和AC算法题的快感类似,从网络上爬取各种数据也很有意思. 准备写一系列文章,整理一下学习历程,也给后来者提供一点便利. 我是目录 听说你叫爬虫 - ...
- 【图文详解】python爬虫实战——5分钟做个图片自动下载器
python爬虫实战——图片自动下载器 之前介绍了那么多基本知识[Python爬虫]入门知识,(没看的先去看!!)大家也估计手痒了.想要实际做个小东西来看看,毕竟: talk is cheap sho ...
- 【Python爬虫】入门知识
爬虫基本知识 这阵子需要用爬虫做点事情,于是系统的学习了一下python爬虫,觉得还挺有意思的,比我想象中的能干更多的事情,这里记录下学习的经历. 网上有关爬虫的资料特别多,写的都挺复杂的,我这里不打 ...
- Python实战:Python爬虫学习教程,获取电影排行榜
Python应用现在如火如荼,应用范围很广.因其效率高开发迅速的优势,快速进入编程语言排行榜前几名.本系列文章致力于可以全面系统的介绍Python语言开发知识和相关知识总结.希望大家能够快速入门并学习 ...
- Python爬虫入门:综述
大家好哈,最近博主在学习Python,学习期间也遇到一些问题,获得了一些经验,在此将自己的学习系统地整理下来,如果大家有兴趣学习爬虫的话,可以将这些文章作为参考,也欢迎大家一共分享学习经验. Pyth ...
随机推荐
- 实现div里的img图片水平垂直居中
body结构 <body> <div> <img src="1.jpg" alt="haha"> </div> ...
- JVM 内部原理(六)— Java 字节码基础之一
JVM 内部原理(六)- Java 字节码基础之一 介绍 版本:Java SE 7 为什么需要了解 Java 字节码? 无论你是一名 Java 开发者.架构师.CxO 还是智能手机的普通用户,Java ...
- 教你一招:更新/替换系统 hosts,轻松访问国外站点
更新 hosts 下面介绍的操作均可能覆盖现有 hosts ,进行操作前请先确认是否需要备份. 推荐使用本项目的 Host Tools 来自动化 备份/配置 工作. 若更新 hosts 未立即生效,请 ...
- 原 TCP层的分段和IP层的分片之间的关系 & MTU和MSS之间的关系
首先说明:数据报的分段和分片确实发生,分段发生在传输层,分片发生在网络层.但是对于分段来说,这是经常发生在UDP传输层协议上的情况,对于传输层使用TCP协议的通道来说,这种事情很少发生. 1,MTU( ...
- 解决Hive与Elasticsearch共有库 guava 冲突 NoSuchMethodError
情况描述 解决方法 方法一:Shade and relocate 简介 Shade Elasticsearch 引入shade ES jar 方法二:修改集群Job配置策略(未实验) 情况描述 使用J ...
- Hadoop、Spark 集群环境搭建
1.基础环境搭建 1.1运行环境说明 1.1.1硬软件环境 主机操作系统:Windows 64位,四核8线程,主频3.2G,8G内存 虚拟软件:VMware Workstation Pro 虚拟机操作 ...
- Generate class from database table How can i generate a class from a table at a SQL Server?
Set @TableName to the name of your table. declare @TableName sysname = 'TableName' declare @Result v ...
- 用Physijs在场景中添加物理效果
1.创建可用Physijs的基本Three.js场景 创建一个可用Physijs的Three.js场景非常简单,只要几个步骤即可.首先我们要包含正确的文件, 需要引入physi.js文件.实际模拟物理 ...
- [Ubuntu] LightDM 轻量级桌面显示管理器
LightDM(Light Display Manager)是一个全新的轻量级 Linux 桌面显示管理器,而传统的 Ubuntu 是使用 GNOME 桌面标准的 GDM. LightDM 是一个跨桌 ...
- Mac下利用Cordova打包 iOS App以及出现的问题
安装 cordova sudo npm install cordova 创建项目 创建一个demo文件夹,里面自动加载基本的文件以及目录 cordova create demo com.test.de ...