python爬虫爬取安居客并进行简单数据分析
本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理
爬取过程
一、指定爬取数据
二、设置请求头防止反爬
三、分析页面并且与网页源码进行比对
四、分析页面整理数据
五、保存到excel表中
六、使用jupyternotebook进行简单的数据分析
一、指定爬取数据
需求:
提取价格、面积、详细标题、名称、具体位置、房屋结构、装修情况
二、设置请求头
这里设置请求头依然使用最常见的 user-agent和cookie值作为反爬头,但是在实际操作中,由于爬取数据太快可能会导致ip被禁,一开始我也被封过一次。。。。。奇迹的是后来隔了一天打开之后就可以畅通无阻的爬取,但是最保险的方式还是设置一个代理ip防止被封免费的代理大家可以去快代理去尝试,土豪就除外了。
三、分析页面与源码比对
通过对源码的分析,发现页面对数字进行了一个加密。如图
接下来就要对字体进行一个解密
通过查看网页得知,网页上所有的数字都进行了加密,因此提取价格以及房屋结构首先都要对数字进行解密
第一步 分析
字体加密一般都涉及到字体文件,字体文件后面一般为 woff和ttf,字体文件可以在网页源码中找到
在这里我们看到了base64说明这些字符串都是通过base64编码过,这些字符串就是字体映射的内容
第二步 创建、打开文件,查找映射关系
1.创建文件代码
fontdata = re.findall("charset=utf-8;base64,(.*?)'\) format",html,re.S)[0]
fontent = base64.b64decode(fontdata)
f = open("t5.woff", 'wb')
f.write(fontent)
f.close()`
fontdata为bs64编码过后的字符串
2.用TTFont打开文件并保存为xml格式
fonts = TTFont('t5.woff')
fonts.saveXML('test8.xml')
3.查看文件并找到索引关系
<cmap>
<tableVersion version="0"/>
<cmap_format_4 platformID="0" platEncID="3" language="0">
<map code="0x9476" name="glyph00008"/><!-- CJK UNIFIED IDEOGRAPH-9476 -->
<map code="0x958f" name="glyph00003"/><!-- CJK UNIFIED IDEOGRAPH-958F -->
<map code="0x993c" name="glyph00002"/><!-- CJK UNIFIED IDEOGRAPH-993C -->
<map code="0x9a4b" name="glyph00006"/><!-- CJK UNIFIED IDEOGRAPH-9A4B -->
<map code="0x9e3a" name="glyph00009"/><!-- CJK UNIFIED IDEOGRAPH-9E3A -->
<map code="0x9ea3" name="glyph00005"/><!-- CJK UNIFIED IDEOGRAPH-9EA3 -->
<map code="0x9f64" name="glyph00010"/><!-- CJK UNIFIED IDEOGRAPH-9F64 -->
<map code="0x9f92" name="glyph00001"/><!-- CJK UNIFIED IDEOGRAPH-9F92 -->
<map code="0x9fa4" name="glyph00004"/><!-- CJK UNIFIED IDEOGRAPH-9FA4 -->
<map code="0x9fa5" name="glyph00007"/><!-- CJK UNIFIED IDEOGRAPH-9FA5 -->
<GlyphID id="0" name="glyph00000"/>
<GlyphID id="1" name="glyph00001"/>
<GlyphID id="2" name="glyph00002"/>
<GlyphID id="3" name="glyph00003"/>
<GlyphID id="4" name="glyph00004"/>
<GlyphID id="5" name="glyph00005"/>
<GlyphID id="6" name="glyph00006"/>
<GlyphID id="7" name="glyph00007"/>
<GlyphID id="8" name="glyph00008"/>
<GlyphID id="9" name="glyph00009"/>
<GlyphID id="10" name="glyph00010"/>
列如
龤;
&#对应code码的0 code码为x9fa4的name为glyph00004,匹配name为glyph00004的id值为4,在去匹配网页对应的数字发现需要将id值减去1,因此在写代码时提取出name最后一个数字减去1就可以匹配到数字
字体反爬代码
fontdata = re.findall("charset=utf-8;base64,(.*?)'\) format",html,re.S)[0]
fontent = base64.b64decode(fontdata)
f = open("t5.woff", 'wb')
f.write(fontent)
f.close()
fonts = TTFont('t5.woff')
fonts.saveXML('test8.xml')
root = et.parse('test8.xml').getroot()
con = root.find('cmap').find('cmap_format_4').findall('map')
for i in con:
names = i.attrib['name']
code = i.attrib['code'].replace('0x', '&#x') + ';'
c1 = re.findall(r'\d+', names)
c2 = str(int(c1[0]) - 1)
content = content.replace(code, c2)
return content
四、分析页面整理数据
将字体解密后通过分析页面就可以提取出价格、房屋结构和面积的数据,通过xpath定位的方式定位到每一个爬取数据的位置
def lxmldata(data):
datas =etree.HTML(data)
list1 = []
date=datas.xpath("//div[@class='list-content']//div[@class='zu-itemmod']")
for i,dates in enumerate (date):
dict = {}
#价格
price1 = re.findall('<p><strong><b class="strongbox">(.*?)</b></strong> 元/月</p>', data, re.S)
price = re.findall('<p><strong><b class="strongbox">(.*?)</b></strong> 元/月</p>', data, re.S)[i]
#面积
size = re.findall('<b class="strongbox" style="font-weight: normal;">(.*?)</b>', data, re.S)[2:len(price1)*3:3][i]
#房屋结构
fangjian1 = re.findall('<b class="strongbox" style="font-weight: normal;">(.*?)</b>', data, re.S)[0:len(price1)*3:3][i]
fangjian2 = re.findall('<b class="strongbox" style="font-weight: normal;">(.*?)</b>', data, re.S)[1:len(price1)*3:3][i]
#详细标题
title=dates.xpath(".//div[@class='zu-info']//b/text()")
#名称
map = dates.xpath(".//address[@class='details-item']/a/text()")
#具体位置
local = dates.xpath(".//address[@class='details-item']/text()")
local = [x.strip() for x in local]
#装修情况
zhuangxiu = dates.xpath(".//p[@class='details-item bot-tag']//span[@class='cls-1']/text()")+dates.xpath(".//p[@class='details-item bot-tag']/span[@class='cls-2']/text()")+dates.xpath(".//p[@class='details-item bot-tag']/span[@class='cls-3']/text()")
dict['价格']=str(fanpa1(price,data))+'元/月'
dict['面积']=str(fanpa1(size,data))+'平方米'
dict["详细标题"]=title[0]
dict['名称']=map[0]
dict["具体位置"]=local[1]
dict['房间结构']=fanpa1(fangjian1,data)+'室'+fanpa1(fangjian2,data)+'厅'
if len(zhuangxiu)==3:
dict["装修情况"]=zhuangxiu[0]+','+zhuangxiu[1]+','+zhuangxiu[2]
elif len(zhuangxiu)==2:
dict["装修情况"]=zhuangxiu[0]+','+zhuangxiu[1]
else:
dict["装修情况"] = zhuangxiu[0]
list1.append(dict)
return list1
第五步 保存到excel表
设置7个字段分别为[‘价格’,‘面积’,‘详细标题’,‘名称’,‘具体位置’,‘房间结构’,‘装修情况’]
代码如下
def save(list):
filename = "C:/Users/xxx/Desktop/安居客二十页.xls"
book = xlwt.Workbook()
sheet1=book.add_sheet("sheet1")
header = ['价格','面积','详细标题','名称','具体位置','房间大小','装修情况']
for i in range(len(header)):
sheet1.write(0,i,header[i])
j = 1
for i in list:
sheet1.write(j,0,i['价格'])
sheet1.write(j,1,i['面积'])
sheet1.write(j,2,i['详细标题'])
sheet1.write(j,3,i['名称'])
sheet1.write(j,4,i['具体位置'])
sheet1.write(j,5,i['房间大小'])
sheet1.write(j,6,i['装修情况'])
j = j+1
book.save(filename)
print("写入成功")
list是传入的数据,list=lxmldata
总代码
import requests
from lxml import etree
import random
import time
from selenium import webdriver
import base64
import base64
import re
import xml.etree.ElementTree as et
from fontTools.ttLib import TTFont
from fontTools.ttLib import TTFont
import xlwt
#字体反扒
def fanpa1(content,html):
fontdata = re.findall("charset=utf-8;base64,(.*?)'\) format",html,re.S)[0]
fontent = base64.b64decode(fontdata)
f = open("t5.woff", 'wb')
f.write(fontent)
f.close()
fonts = TTFont('t5.woff')
fonts.saveXML('test8.xml')
root = et.parse('test8.xml').getroot()
con = root.find('cmap').find('cmap_format_4').findall('map')
for i in con:
names = i.attrib['name']
code = i.attrib['code'].replace('0x', '&#x') + ';'
c1 = re.findall(r'\d+', names)
c2 = str(int(c1[0]) - 1)
content = content.replace(code, c2)
return content
#分析页面
def lxmldata(data):
datas =etree.HTML(data)
list1 = []
date=datas.xpath("//div[@class='list-content']//div[@class='zu-itemmod']")
for i,dates in enumerate (date):
dict = {}
#价格
price1 = re.findall('<p><strong><b class="strongbox">(.*?)</b></strong> 元/月</p>', data, re.S)
price = re.findall('<p><strong><b class="strongbox">(.*?)</b></strong> 元/月</p>', data, re.S)[i]
#面积
size = re.findall('<b class="strongbox" style="font-weight: normal;">(.*?)</b>', data, re.S)[2:len(price1)*3:3][i]
#房屋结构
fangjian1 = re.findall('<b class="strongbox" style="font-weight: normal;">(.*?)</b>', data, re.S)[0:len(price1)*3:3][i]
fangjian2 = re.findall('<b class="strongbox" style="font-weight: normal;">(.*?)</b>', data, re.S)[1:len(price1)*3:3][i]
#详细标题
title=dates.xpath(".//div[@class='zu-info']//b/text()")
#名称
map = dates.xpath(".//address[@class='details-item']/a/text()")
#具体位置
local = dates.xpath(".//address[@class='details-item']/text()")
local = [x.strip() for x in local]
#装修情况
zhuangxiu = dates.xpath(".//p[@class='details-item bot-tag']//span[@class='cls-1']/text()")+dates.xpath(".//p[@class='details-item bot-tag']/span[@class='cls-2']/text()")+dates.xpath(".//p[@class='details-item bot-tag']/span[@class='cls-3']/text()")
dict['价格']=str(fanpa1(price,data))+'元/月'
dict['面积']=str(fanpa1(size,data))+'平方米'
dict["详细标题"]=title[0]
dict['名称']=map[0]
dict["具体位置"]=local[1]
dict['房间结构']=fanpa1(fangjian1,data)+'室'+fanpa1(fangjian2,data)+'厅'
if len(zhuangxiu)==3:
dict["装修情况"]=zhuangxiu[0]+','+zhuangxiu[1]+','+zhuangxiu[2]
elif len(zhuangxiu)==2:
dict["装修情况"]=zhuangxiu[0]+','+zhuangxiu[1]
else:
dict["装修情况"] = zhuangxiu[0]
list1.append(dict)
return list1
def save(list):
filename = "C:/Users/孟尚宇/Desktop/安居客二十页.xls"
book = xlwt.Workbook()
sheet1=book.add_sheet("sheet1")
header = ['价格','面积','详细标题','名称','具体位置','房间大小','装修情况']
for i in range(len(header)):
sheet1.write(0,i,header[i])
j = 1
for i in list:
sheet1.write(j,0,i['价格'])
sheet1.write(j,1,i['面积'])
sheet1.write(j,2,i['详细标题'])
sheet1.write(j,3,i['名称'])
sheet1.write(j,4,i['具体位置'])
sheet1.write(j,5,i['房间大小'])
sheet1.write(j,6,i['装修情况'])
j = j+1
book.save(filename)
print("写入成功")
if __name__ == '__main__':
headers = {
"user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36",
"cookie":"aQQ_ajkguid=C1CC68B8-4D19-287F-3644-2D367108DEC0; id58=e87rkF/LkOJmpXJnEm4JAg==; 58tj_uuid=a6d935e2-5506-4369-9370-d4081b424818; ctid=49; _ga=GA1.2.1998955085.1607386984; _gid=GA1.2.1925540573.1607386984; new_uv=2; als=0; cmctid=2053; wmda_new_uuid=1; wmda_uuid=aa760fc62c405eecb84c273b7206beed; wmda_visited_projects=%3B6289197098934; xxzl_cid=090b7011f13f44c8b3d9271ce16587b3; xzuid=ad62da25-6302-4e3e-992e-eea22f2d9d02; lps=https%3A%2F%2Fhai.zu.anjuke.com%2Ffangyuan%2Fp2%2F%3Ffrom_price%3D0%26to_price%3D2500an%7Chttps%3A%2F%2Fcallback.58.com%2F; wmda_session_id_6289197098934=1607426591062-bdd0135e-4c1f-a60c; xzfzqtoken=lbhfULbvUI2tmDmR%2By8o2XgL%2FoD%2Fi8pTDHftNbKQZZ3J9dDc2%2BiE91mVlKbcur5Hin35brBb%2F%2FeSODvMgkQULA%3D%3D",
"path":"/fangyuan/p2/?from_price=0&to_price=2500an"
}
dict2 = []
dict1 = []
for i in range(20):
url = "https://hai.zu.anjuke.com/fangyuan/p{}/".format(i+1)
resopnse=requests.get(url=url,headers=headers).content.decode('utf-8')
list=lxmldata(resopnse)
dict1.append(list)
print("第"+str(i)+"页数据完成")
for j in dict1:
for k in j:
dict2.append(k)
save(dict2)
第六步进行简单的数据分析
分析目标:挑选出安居客2000-4000的并且面积大于100平米的房子
第一步导入数据
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
data2=pd.read_excel(r"C:\Users\xxx\Desktop\安居客二十页.xls")
第二步 找出详细标题重复值并删掉
data2.drop_duplicates(subset=['详细标题'],inplace=True)
第三步删除存在缺失值的某行
data2.dropna(how='any',axis=0)
第四步 挑选出有电梯的房子
定义一个函数如果有电梯在’房屋结构’这一字段数据中,则返回True
之后用布尔索引挑选出数据
def home(s):
if '有电梯' in s:
return True
else:
return False
data2['房屋结构']=data2['房屋结构'].map(home)
data2=data2[data2['房屋结构']==1]
第五步 找出 三室一厅 三室二厅的房子
data2=data2[(data2['房间大小']=='3室2厅') | (data2['房间大小']=='3室1厅')]
第六步对价格进行分类
对价格分类 500-1000 1000-2000 2000-3000 3000 -4000 4000+
#把字符串后的汉字去掉
data2['价格']=data2['价格'].str.split("元",expand=True).iloc[:,0]
data2['价格']=data2['价格'].astype(int)
grooups=pd.cut(data2['价格'],bins=[500,1000,2000,3000,4000,10000],labels = ['500-1000','1000-2000','2000-3000','3000-4000','4000+'])
data2['价格范围']=grooups
第七步 找出价格为2000-4000的并且面积大于100平米的房子
data2= data2[(data2['价格范围']=='2000-3000')| (data2['价格范围']=='3000-4000')]
data2['面积']=data2['面积'].str.split("平",expand=True).iloc[:,0]
data2['面积']=data2['面积'].astype(float)
groups=pd.cut(data2['面积'],bins = [0,100,100000000000000],labels=['0-100','100-'])
data2['面积范围']=groups
第八步 根据序号找出对应的数据
s=data2[data2['面积范围']=='100-'].index
data=pd.read_excel(r"C:\Users\xxx\Desktop\安居客二十页.xls")
a=list(s)
a = tuple(a)
data3=data.loc[a,:]
想要获取更多Python学习资料可以加
QQ:2955637827私聊
或加Q群630390733
大家一起来学习讨论吧!
python爬虫爬取安居客并进行简单数据分析的更多相关文章
- Python开发爬虫之BeautifulSoup解析网页篇:爬取安居客网站上北京二手房数据
目标:爬取安居客网站上前10页北京二手房的数据,包括二手房源的名称.价格.几室几厅.大小.建造年份.联系人.地址.标签等. 网址为:https://beijing.anjuke.com/sale/ B ...
- 用Python爬虫爬取广州大学教务系统的成绩(内网访问)
用Python爬虫爬取广州大学教务系统的成绩(内网访问) 在进行爬取前,首先要了解: 1.什么是CSS选择器? 每一条css样式定义由两部分组成,形式如下: [code] 选择器{样式} [/code ...
- python爬虫爬取内容中,-xa0,-u3000的含义
python爬虫爬取内容中,-xa0,-u3000的含义 - CSDN博客 https://blog.csdn.net/aiwuzhi12/article/details/54866310
- python爬虫—爬取英文名以及正则表达式的介绍
python爬虫—爬取英文名以及正则表达式的介绍 爬取英文名: 一. 爬虫模块详细设计 (1)整体思路 对于本次爬取英文名数据的爬虫实现,我的思路是先将A-Z所有英文名的连接爬取出来,保存在一个cs ...
- Python爬虫 - 爬取百度html代码前200行
Python爬虫 - 爬取百度html代码前200行 - 改进版, 增加了对字符串的.strip()处理 源代码如下: # 改进版, 增加了 .strip()方法的使用 # coding=utf-8 ...
- 使用Python爬虫爬取网络美女图片
代码地址如下:http://www.demodashi.com/demo/13500.html 准备工作 安装python3.6 略 安装requests库(用于请求静态页面) pip install ...
- Python爬虫|爬取喜马拉雅音频
"GOOD Python爬虫|爬取喜马拉雅音频 喜马拉雅是知名的专业的音频分享平台,用户规模突破4.8亿,汇集了有声小说,有声读物,儿童睡前故事,相声小品等数亿条音频,成为国内发展最快.规模 ...
- Python爬虫爬取全书网小说,程序源码+程序详细分析
Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...
- 一个简单的python爬虫,爬取知乎
一个简单的python爬虫,爬取知乎 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片 文字信息暂未收录,可自行实现,比图片更简单 具体代码里有详细注释,请自行阅读 项目源码: # -*- cod ...
随机推荐
- 【移动自动化】【四】获取Toast
什么是Toast Android中的Toast是一种简易的消息提示框. 如何识别Toast 使用 xpath 查找 推荐 //*[@class='android.widget.Toast'] (固定这 ...
- HTTPS原理剖析
一.HTTP隐患 客户端向服务器发送HTTP请求,服务器收到请求后返回响应给客户端: 抓包如图: 我们可以发现:HTTP报文明文传输(而TCP/IP是可能被窃听的网络):且客户端跟服务器之间没有任何身 ...
- C语言讲义——内存管理
动态分配内存 动态分配内存,在堆(heap)中分配. void *malloc(unsigned int num_bytes); 头文件 stdlib.h或malloc.h 向系统申请分配size个字 ...
- java备份Oracle数据库表
<html><head><title>数据备份</title><meta name="decorator" content=& ...
- NFS服务配置总结
目录 介绍 原理 适用场景 安装 NFS服务端 NFS客户端 配置 服务端配置 客户端配置 介绍 NFS就是Network File System的缩写,它最大的功能就是可以通过网络,让不同的机器.不 ...
- 关于Python中中文文本文件使用二进制方式读取后的解码UnicodeDecodeError问题
最近老猿在进行文件操作的验证测试,发现对于中文文本文件如果使用二进制方式打开,返回的类型是bytes,如果要转换成可读的字符串信息需要进行解码.可是老猿使用decode()或decode(" ...
- PyQt学习随笔:PyQt中捕获键盘事件后获取具体按键值的方法
在PyQt中,如果要捕获键盘事件的具体按键,可以通过重写组件对象的keyPressEvent方法或event方法来捕获具体的按键,推荐使用keyPressEvent方法,因为event方法是一个通用事 ...
- google colab 杂谈
需要一个GPU服务器,找到了免费的Google Colab 一.切换tensorflow版本: %tensorflow_version 1.x import tensorflow as tf tf._ ...
- LeetCode初级算法之数组:1 两数之和
两数之和 题目地址:https://leetcode-cn.com/problems/two-sum/ 给定一个整数数组 nums 和一个目标值 target,请你在该数组中找出和为目标值的那 两个整 ...
- Java集合源码分析(十)——TreeSet
简介 TreeSet就是一个集合,里面不能有重复的元素,但是元素是有序的. TreeSet其实就是调用了TreeMap实现的,所以,它也不是线程安全的.可以实现自然排序或者根据传入的Comparato ...