python爬取大众点评
拖了好久的代码
1.首先进入页面确定自己要抓取的数据(我们要抓取的是左侧分类栏-----包括美食、火锅)
先爬取第一级分类(美食、婚纱摄影、电影),之后根据第一级链接爬取第二层(火锅)。要注意第二级的pid是第一级的classid,这样才能区分出第二级分类哪些是属于第一级的。
2.上一步我们分别把链接存入Redis,名称存入了Mongodb,这一步我们要从Redis取链接,取第二级的链接。因为我们要获取店铺的信息(所以取第二级链接就够),我们首先分析取得第一页的内容,然后找到他下一页的代码(取得下一页代码就获取整个分类的店铺)
3.获取店铺信息(根据取得的店铺链接获取对应的店铺信息)
因为我们发现http协议头和cookie我们几乎每次都用到了,所以我们将它们封装成了一个方法,以便用的时候调用。
至此,大众点评就算结束了,只不过还没取评论信息,会慢慢上。
1.py
# -*- coding: utf-8 -*-
import re
from urllib.request import urlopen
from urllib.request import Request
from bs4 import BeautifulSoup
from lxml import etree
from pymongo import MongoClient
client = MongoClient('localhost',27017)
db=client.dianping
collection=db.classification #类别表
import redis
r = redis.Redis(host='127.0.0.1',port=6379,db=0)
ii=0
def secClassFind(selector,classid):
global ii
ii += 1
secItems = selector.xpath('//div[@class="sec-items"]/a')
for secItem in secItems:
url = secItem.get('href')
title = secItem.text
classid = collection.insert({'classname':title,'pid':classid})
classurl = '%s,%s,%i,%s'%(classid,url,ii,title)
r.lpush('classurl',classurl)
def findRootNode(url):
headers = {'User-Agent':'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6'}
req_timeout = 5
req = Request(url=url,headers=headers)
f = urlopen(req,None,req_timeout)
s=f.read()
s=s.decode("utf-8")
# beautiful 提取数据
soup=BeautifulSoup(s,'html.parser')
links=soup.find_all(name='li',class_="first-item")
for link in links:
selector = etree.HTML(str(link))
'''
indexTitleUrls = selector.xpath('//a[@class="index-title"]/@href')
#获取一级类别url和title
for titleurl in indexTitleUrls:
print(titleurl)
'''
indexTitles = selector.xpath('//a[@class="index-title"]/text()')
for title in indexTitles:
print(title)
classid = collection.insert({'classname':title,'pid':None})
#第二级别url
secClassFind(selector,classid)
#print(rs)
print('-------------')
print('----------------------------------------------')
findRootNode('http://www.dianping.com/')
2.py
# -*- coding: utf-8 -*-
import re
from urllib.request import urlopen
from urllib.request import Request
from slaver3_list import getCurPageList
from bs4 import BeautifulSoup
from lxml import etree
from pymongo import MongoClient
client = MongoClient('localhost',27017)
db=client.dianping
import redis
r = redis.Redis(host='127.0.0.1',port=6379,db=0)
'''
1.从classurl中取得一个链接
2.根据此链接获得一个列表页面
3.分析获得页面上的店铺链接
4.获得下一页链接
5.继续爬取下一页信息,继续解析获得链接(重复2~5)
直到没有下一页为止
'''
#1.从redis中获取一个链接
#classurls = bytes.decode(r.lindex('classurl',0))
shopflag = int(r.get('shopflag'))
if shopflag==0:
collection=db.shops0 #类别表
collection.remove({})
r.set(')
else:
collection=db.shops1 #类别表
collection.remove({})
r.set(')
r.delete('shopurl')
list = r.lrange('classurl',0,-1)
for item in list:
classurl = bytes.decode(item) #二进制转字符串
arr = classurl.split(',')
#print(arr[0]) #classid
#print(arr[1]) #classurl
getCurPageList(arr[0],arr[1],shopflag)
break
'''
print(classurls)
arr = classurls.split(',')
if int(arr[2])==16:
#调用
getCurPageList(arr[0],arr[1])
'''
3.py
# -*- coding: utf-8 -*-
import re
#from urllib.request import urlopen
#from urllib.request import Request
from common import httpSpider
from bs4 import BeautifulSoup
from lxml import etree
from bson.objectid import ObjectId
from slaver4_shopinfo import getShopInfo
from pymongo import MongoClient
client = MongoClient('localhost',27017)
db=client.dianping
collection=None
import redis
r = redis.Redis(host='127.0.0.1',port=6379,db=0)
ii=0
#id,店名,类别id
def insertShop(classid,shopList):
global collection
for div in shopList:
#print(div.get("href"))
#print(div.get('title'))
url = div.get("href")
shopid = collection.insert({'_id':url,'shopname':div.get('title'),'classid':ObjectId(classid)})
# shopurl = '%s,%s,%s'%(classid,shopid,url)
# r.lpush('shopurl',shopurl)
getShopInfo(shopid,url)
def getCurPageList(classid,url,shopflag):
global ii
ii += 1
html = httpSpider(url)
#print(html)
selector = etree.HTML(html)
global collection
if shopflag==0:
collection=db.shops0 #店铺表
else:
collection=db.shops1
divTits = selector.xpath('//div[@class="tit"]/a[@title]')
insertShop(classid,divTits)
'''
for div in divTits:
print(div.get("href"))
print(div.get('title'))
'''
print('----------%i---------------'%(ii))
#-----下一页--------------------------
'''
nextPage = selector.xpath('//a[@class="next"]/@href')
if len(nextPage)>0:
newUrl = nextPage[0]
#print(nextPage[0])
getCurPageList(newUrl)
'''
4.py
# -*- coding: utf-8 -*-
import re
#from urllib.request import urlopen
#from urllib.request import Request
from common import httpSpider
from bs4 import BeautifulSoup
from lxml import etree
from bson.objectid import ObjectId
from pymongo import MongoClient
client = MongoClient('localhost',27017)
db=client.dianping
collection=db.shops #店铺表
import redis
r = redis.Redis(host='127.0.0.1',port=6379,db=0)
def getShopInfo(shopid,shopurl):
html = httpSpider(shopurl)
selector = etree.HTML(html)
briefInfo = selector.xpath('//div[@class="brief-info"]//span[@class="item"]')
for item in briefInfo:
print(item.text)
common.py
# -*- coding: utf-8 -*-
import urllib.request
from urllib.request import urlopen
from urllib.request import Request
import http.cookiejar
from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
head = {
'Connection': 'Keep-Alive',
'Accept': 'text/html, application/xhtml+xml, */*',
'Accept-Language': 'en-US,en;q=0.8,zh-Hans-CN;q=0.5,zh-Hans;q=0.3',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36',
}
def makeMyOpener(head):
cj = http.cookiejar.CookieJar()
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
header = []
for key, value in head.items():
elem = (key, value)
header.append(elem)
opener.addheaders = header
return opener
def httpSpider(url):
oper = makeMyOpener(head)
req_timeout = 5
uop = oper.open(url, timeout = req_timeout)
data = uop.read()
html = data.decode()
return html
def dynamicSpider(url):
headers = {
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
'Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_5) AppleWebKit/603.2.4 (KHTML, like Gecko) Version/10.1.1 Safari/603.2.4',
'Connection': 'keep-alive'
}
cap = DesiredCapabilities.PHANTOMJS.copy() #使用copy()防止修改原代码定义dict
for key, value in headers.items():
cap['phantomjs.page.customHeaders.{}'.format(key)] = value
cap["phantomjs.page.settings.loadImages"] = False
driver = webdriver.PhantomJS(desired_capabilities=cap,executable_path='D:/phantoms/phantomjs-2.1.1-windows/bin/phantomjs.exe')
driver.get(url)
html = driver.page_source
driver.quit()
return html
python爬取大众点评的更多相关文章
- python爬取大众点评并写入mongodb数据库和redis数据库
抓取大众点评首页左侧信息,如图: 我们要实现把中文名字都存到mongodb,而每个链接存入redis数据库. 因为将数据存到mongodb时每一个信息都会有一个对应的id,那样就方便我们存入redis ...
- Python 爬取大众点评 50 页数据,最好吃的成都火锅竟是它!
前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者: 胡萝卜酱 PS:如有需要Python学习资料的小伙伴可以加点击下方链 ...
- 用Python爬取大众点评数据,推荐火锅店里最受欢迎的食品
前言 文的文字及图片来源于网络,仅供学习.交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理. 作者:有趣的Python PS:如有需要Python学习资料的小伙伴可以加点 ...
- python爬虫实战---爬取大众点评评论
python爬虫实战—爬取大众点评评论(加密字体) 1.首先打开一个店铺找到评论 很多人学习python,不知道从何学起.很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手.很多已经 ...
- python爬虫爬取大众点评并导入redis
直接上代码,导入redis的中文编码没有解决,日后解决了会第一时间上代码!新手上路,多多包涵! # -*- coding: utf-8 -*- import re import requests fr ...
- Python爬虫丨大众点评数据爬虫教程(1)
大众点评数据获取 --- 基础版本 大众点评是一款非常受普罗大众喜爱的一个第三方的美食相关的点评网站. 因此,该网站的数据也就非常有价值.优惠,评价数量,好评度等数据也就非常受数据公司的欢迎. 今天就 ...
- Python 爬取所有51VOA网站的Learn a words文本及mp3音频
Python 爬取所有51VOA网站的Learn a words文本及mp3音频 #!/usr/bin/env python # -*- coding: utf-8 -*- #Python 爬取所有5 ...
- python爬取网站数据
开学前接了一个任务,内容是从网上爬取特定属性的数据.正好之前学了python,练练手. 编码问题 因为涉及到中文,所以必然地涉及到了编码的问题,这一次借这个机会算是彻底搞清楚了. 问题要从文字的编码讲 ...
- python爬取某个网页的图片-如百度贴吧
python爬取某个网页的图片-如百度贴吧 作者:vpoet mail:vpoet_sir@163.com 注:随意copy,不用告诉我 #coding:utf-8 import urllib imp ...
随机推荐
- 数据库服务器---Qps
QPS(Query Per Second)意思为"每秒查询率",是一台服务器每秒能够相应的查询次数,是对一个特定的查询服务器在规定时间内所处理流量多少的衡量标准.同时也代表一种计算 ...
- Protocol Buffer序列化对比Java序列化.
初识 Protocol Buff是谷歌推出的一种序列化协议. 而Java序列化协议也是一种协议. 两者的目的是, 将对象序列化成字节数组, 或者说是二进制数据, 那么他们之间有什么差异呢. proto ...
- Win10系统下的Tomcat7.0配置
为什么不用更高版本的Tomcat呢?好几个老师都说7.0的版本最好用,所以就推荐用这个.安Tomcat之前,我电脑上装的是jdk 9,安装了好几次Apache都不能启动,日志显示的是"启动报 ...
- js比较日期大小
第一种方法: var starttime = "2007-1-2 7:30"; var endtime = "2007-2-31 8:30"; alert(Co ...
- 使用hiredis实现pipeline方式访问
1.介绍 hiredis: 一个c/c++的访问redis的api库 地址:https://github.com/redis/hiredis pipeline方式: redis中的pipeline方式 ...
- python 3.6 urllib库实现天气爬取、邮件定时给妹子发送天气
#由于每天早上要和妹子说早安,于是做个定时任务,每天早上自动爬取天气,发送天气问好邮件##涉及模块:#(1)定时任务:windows的定时任务# 配置教程链接:http://b ...
- 一个模型中有两个外键指向同一张表时,创建迁移模型时报错:“ HINT: Add or change a related_name argument to the definition for 'AnswersModel.author' or 'AnswersModel.relay_to'.”解决方案
class AnswersModel(models.Model): author = models.ForeignKey(FrontUserModel,null=True,related_name=' ...
- EasyUI实现异步载入tree(整合Struts2)
首先jsp页面有一ul用于展现Tree <ul id="mytree"></ul> 载入Tree <script type="text/ja ...
- web常见效果之轮播图
轮播图的展示效果是显而易见: HTML代码如下 <!DOCTYPE html> <html> <head> <meta charset="UTF-8 ...
- 前端(各种demo)三:优惠券,热区,等模块的实现(css方式)
各种样式的css实现 1.优惠券样式的实现: 2.热区的实现: 在电商平台上总会发出各种券,需要对应到不同的产品,对应到不同的服务.而使用券可以使用UED的设计稿里的照片,但是本来一次性的加载过多 ...