"""
抓取猫眼电影TOP100
""" import re
import time
import requests from bs4 import BeautifulSoup class SpiderMaoyan(object): def __init__(self):
# 通过分析URL可以发现, 猫眼电影TOP100页面是通过 offset + 10 来分页的
self.url = "http://maoyan.com/board/4?offset={0}"
# 设置一下UA, 否则有可能提示你访问被禁止了
self.headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) "
"Chrome/66.0.3359.139 Safari/537.36"
}
# 定义需要提取的内容字段
self.fields = ("id", "name", "movieUrl", "imgUrl", "star", "releaseTime", "score") def handler(self, offset=0): while offset < 100:
response = requests.get(self.url.format(offset), headers=self.headers)
if response.status_code == 200:
print("INFO -> Current URL: <%s>" % response.url)
# 编码处理一下, 不然有可能中文显示乱码
r_html = response.text.encode(response.encoding).decode("utf-8")
# 构建一个 BeautifulSoup 对象, 用于后续的标签、内容提取
soup = BeautifulSoup(r_html, "html5lib")
# 继续分析网页源代码, 发现每部影片都存在 <dd></dd> 标签中
tags = soup.select("dd")
# 提取内容
for tag in tags:
# id、name、movieUrl
obj = tag.find("p", class_="name").select_one("a")
_id = re.search(r"movieId:(\d+)", obj.get("data-val")).group(1)
_name = obj.string
_movieUrl = "http://maoyan.com" + obj.get("href")
# img
# Tips: 可以将图片地址后面的分辨率去掉, 保存高清大图地址 .split("@")[0]
_imgUrl = tag.find("img", class_="board-img").get("data-src")
# star
# Tips: 中文标点
_star = tag.find("p", class_="star").string.strip().split(":")[-1]
# releaseTime
# Tips: 中文标点
_releaseTime = tag.find("p", class_="releasetime").string.split(":")[-1]
# score
_score = tag.find("p", class_="score").get_text() # 接下来就可以将数据写入存储了
# Tips: 这种 SQL 生成方式有必要验证 key/val 是否成对出现
print(
"INSERT INTO TABLE_NAME (%s) VALUE %s;" % (
", ".join(self.fields), tuple([_id, _name, _movieUrl, _imgUrl, _star, _releaseTime, _score])
)
) # 偏移量自增
offset += 10
# 有必要停顿一下
time.sleep(.9)
else:
print(response.reason)
exit(999) if __name__ == "__main__": spider = SpiderMaoyan()
spider.handler()

Python Spider 抓取猫眼电影TOP100的更多相关文章

  1. Python爬虫之requests+正则表达式抓取猫眼电影top100以及瓜子二手网二手车信息(四)

    requests+正则表达式抓取猫眼电影top100 一.首先我们先分析下网页结构 可以看到第一页的URL和第二页的URL的区别在于offset的值,第一页为0,第二页为10,以此类推. 二.< ...

  2. python应用-爬取猫眼电影top100

    import requests import re import json import time from requests.exceptions import RequestException d ...

  3. 爬虫_python3_抓取猫眼电影top100

    使用urllib,request,和正则表达式,多线程进行秒抓,以及异常处理结果: import urllib,re,json from multiprocessing import Pool#多进程 ...

  4. Requests+正则表达式抓取猫眼电影TOP100

    spider.py # -*- coding:utf-8 -*- import requests import re import json import codecs from requests.e ...

  5. python requests抓取猫眼电影

    1. 网址:http://maoyan.com/board/4? 2. 代码: import json from multiprocessing import Pool import requests ...

  6. 抓取猫眼电影top100的正则、bs4、pyquery、xpath实现方法

    import requests import re import json import time from bs4 import BeautifulSoup from pyquery import ...

  7. Python爬虫项目--爬取猫眼电影Top100榜

    本次抓取猫眼电影Top100榜所用到的知识点: 1. python requests库 2. 正则表达式 3. csv模块 4. 多进程 正文 目标站点分析 通过对目标站点的分析, 来确定网页结构,  ...

  8. python 爬取猫眼电影top100数据

    最近有爬虫相关的需求,所以上B站找了个视频(链接在文末)看了一下,做了一个小程序出来,大体上没有修改,只是在最后的存储上,由txt换成了excel. 简要需求:爬虫爬取 猫眼电影TOP100榜单 数据 ...

  9. 爬虫系列(1)-----python爬取猫眼电影top100榜

    对于Python初学者来说,爬虫技能是应该是最好入门,也是最能够有让自己有成就感的,今天在整理代码时,整理了一下之前自己学习爬虫的一些代码,今天先上一个简单的例子,手把手教你入门Python爬虫,爬取 ...

随机推荐

  1. xhan/qqbot试用

    xhan/qqbot试用 啥是qqbot?基于WebQQ协议的QQ机器人.命令行工具,Hubot支持! 怎样安装?首先要安装CoffeeScript windows:安装nodejs:主页上就有下载C ...

  2. 注意字符串的strlen与sizeof的差别

    unsigned char AT_RESET[]="r\r\n"; printf("strlen=%d sizeof=%d\n",strlen(AT_RESET ...

  3. zedgraph控件的一些比较有用的属性 转

    (1)zedgraph控件属性具体解释: AxisChange()() ->> This performs an axis change command on the graphPane. ...

  4. ZedGraph控件的使用

    http://blog.chinaunix.net/uid-20776117-id-1847015.html 在我们编写程序的时候,有时候是要做一些统计的,为了达到一目了然的效果,饼状图,曲线图,柱状 ...

  5. NOI2002银河英雄传说——带权并查集

    题目:https://www.luogu.org/problemnew/show/P1196 关键点在于存下每个点的位置. 自己糊涂的地方:位置是相对于谁的位置? 因为每次给一个原来是fa的点赋位置时 ...

  6. 阿里巴巴Java开发手册- 控制语句

    1. [强制]在一个 switch 块内,每个 case 要么通过 break / return 等来终止,要么注释说明程序将继续执行到哪一个 case 为止 : 在一个 switch 块内,都必须包 ...

  7. android开发常用组件【持续更新中。。。】

    UI相关 图片 Android-Universal-Image-Loader:com.nostra13.universalimageloader:异步加载.缓存.显示图片 ImageLoader:co ...

  8. CSS Grid布局入门

    相信大家都比较熟悉flex布局了,最近有空研究了波grid布局,感觉虽然兼容性还不是太高,应用不是太普遍,但是功能非常强大.未来应该是grid+flex为主流,grid是二维布局,很灵活,适合整体构架 ...

  9. Zabbix 命令:zabbix_get

    zabbix_get 作用总有人在群里提问,为什么 zabbix 获取不到数据,为什么 zabbix 提示 Not Support,怎么办?别老问,用 zabbix_get 试着获取数据即可.在 za ...

  10. [转]OBJECT_ID 有哪些种类

    本文来自: http://www.cnblogs.com/biwork/archive/2013/01/07/2849311.html 特别是在建表建存储过程的时候进场会写到: IF OBJECT_I ...