python爬虫(房天下)
房天下
import requests
res = requests.get('http://esf.sz.fang.com/')
#res.text
from bs4 import BeautifulSoup
soup = BeautifulSoup(res.text,'html.parser')
domain = 'http://esf.sz.fang.com'
for house in soup.select('.houseList dl'):
if len(house.select('.title')) > 0:
#print(house.select('.title'))
#print(house.select('.title')[0].text.strip('\n'))
#title = house.select('.title')[0].text.strip('\n')
link = house.select('.title a')[0]['href']
url = domain + link
#print(title)
print(url)
print("=====================================")
http://esf.sz.fang.com/chushou/3_195350255.htm
=====================================
http://esf.sz.fang.com/chushou/3_195673873.htm
=====================================
http://esf.sz.fang.com/chushou/3_194871298.htm
=====================================
http://esf.sz.fang.com/chushou/3_195440493.htm
=====================================
http://esf.sz.fang.com/chushou/3_194941076.htm
=====================================
http://esf.sz.fang.com/chushou/3_195229169.htm
=====================================
http://esf.sz.fang.com/chushou/3_195408601.htm
=====================================
http://esf.sz.fang.com/chushou/3_195686255.htm
=====================================
http://esf.sz.fang.com/chushou/3_195652264.htm
=====================================
http://esf.sz.fang.com/chushou/3_195602160.htm
=====================================
http://esf.sz.fang.com/chushou/3_195499064.htm
=====================================
http://esf.sz.fang.com/chushou/3_195655132.htm
=====================================
http://esf.sz.fang.com/chushou/3_195018784.htm
=====================================
http://esf.sz.fang.com/chushou/3_193837152.htm
=====================================
http://esf.sz.fang.com/chushou/3_195680364.htm
=====================================
http://esf.sz.fang.com/chushou/3_195585056.htm
=====================================
http://esf.sz.fang.com/chushou/3_195346885.htm
=====================================
http://esf.sz.fang.com/chushou/3_195500516.htm
=====================================
http://esf.sz.fang.com/chushou/3_194325860.htm
=====================================
http://esf.sz.fang.com/chushou/3_195556602.htm
=====================================
http://esf.sz.fang.com/chushou/3_195555259.htm
=====================================
http://esf.sz.fang.com/chushou/3_195692033.htm
=====================================
http://esf.sz.fang.com/chushou/3_195202600.htm
=====================================
http://esf.sz.fang.com/chushou/3_195521932.htm
=====================================
http://esf.sz.fang.com/chushou/3_195392858.htm
=====================================
http://esf.sz.fang.com/chushou/3_194891027.htm
=====================================
http://esf.sz.fang.com/chushou/3_192915787.htm
=====================================
http://esf.sz.fang.com/chushou/3_195538851.htm
=====================================
http://esf.sz.fang.com/chushou/3_195737629.htm
=====================================
http://esf.sz.fang.com/chushou/3_195587205.htm
=====================================
'''
[0] 出错
IndexError: list index out of range
第1种可能情况
list[index]index超出范围
第2种可能情况
list是一个空的 没有一个元素
进行list[0]就会出现该错误
'''
import requests
res = requests.get('http://esf.sz.fang.com/chushou/10_195724712.htm')
from bs4 import BeautifulSoup
soup = BeautifulSoup(res.text,'html.parser')
soup.select('.title h1')[0].text.strip()
'碧桂园翡翠山坡地别墅 配套设施齐全 环境优美 价格实惠 交通便利'
info = {}
info['标题'] = soup.select('.title h1')[0].text.strip()
info
{'标题': '碧桂园翡翠山坡地别墅 配套设施齐全 环境优美 价格实惠 交通便利'}
soup.select('.zongjia1 .red20b')[0].text
'398'
info['总价'] = soup.select('.zongjia1 .red20b')[0].text
info
{'总价': '398', '标题': '碧桂园翡翠山坡地别墅 配套设施齐全 环境优美 价格实惠 交通便利'}
for dd in soup.select('dd'):
if ':' in dd.text.strip():
#print(dd.text.strip().split(':'))
key,value = dd.text.strip().split(':')
info[key] = value
info
{'专业度': '2.3',
'二 手 房': '32套',
'使用面积': '216�O',
'厅 结 构': '平层',
'参考月供': '',
'参考首付': '119.4万',
'同比去年': '↓2.1%',
'地上层数': '3层',
'地下室面积': '200平米(全明)',
'好评率': '33%',
'建筑年代': '2016年',
'建筑形式': '独栋',
'建筑面积': '216�O',
'开 发 商': '东莞市黄江碧桂园房地产开发有限公司',
'总价': '398',
'户型': '5室2厅1厨4卫',
'标题': '碧桂园翡翠山坡地别墅 配套设施齐全 环境优美 价格实惠 交通便利',
'满意度': '2.3',
'物 业 费': '暂无资料',
'物业公司': '暂无资料',
'物业类型': '别墅',
'环比上月': '↓1.39%',
'真实度': '2.3',
'租 房': '0套',
'绿 化 率': '0.00%',
'花园面积': '100平米',
'装修程度': '精装修',
'车位数量': '2个',
'车库数量': '1个',
'进门朝向': '南'}
def getHouseDetil(url):
info = {}
import requests
res = requests.get(url)
from bs4 import BeautifulSoup
soup = BeautifulSoup(res.text,'html.parser')
info['标题'] = soup.select('.title h1')[0].text.strip()
info['总价'] = soup.select('.zongjia1 .red20b')[0].text
for dd in soup.select('dd'):
if ':' in dd.text.strip():
#print(dd.text.strip().split(':'))
key,value = dd.text.strip().split(':')
info[key] = value
return info
url = 'http://esf.sz.fang.com/chushou/3_195684731.html'
getHouseDetil(url)
{'专业度': '5',
'二 手 房': '264套',
'产权性质': '商品房',
'住宅类别': '普通住宅',
'使用面积': '76�O',
'参考月供': '',
'参考首付': '114万',
'同比去年': '↑1.11%',
'好评率': '100%',
'年代': '2013年',
'建筑类别': '板楼',
'建筑面积': '89�O',
'开 发 商': '和记黄埔地产(深圳)有限公司',
'总价': '380',
'户型': '3室2厅1厨2卫',
'朝向': '南',
'标题': '刚刚放盘 和黄懿花园顶楼湖景房 带20万装修 诚心出售380万!',
'楼层': '高层(共10层)',
'满意度': '5',
'物 业 费': '3.8元/平米・月',
'物业公司': '暂无资料',
'物业类型': '住宅',
'环比上月': '↑0.01%',
'真实度': '5',
'租 房': '66套',
'结构': '平层',
'绿 化 率': '30.00%',
'装修': '精装修'}
综合案例
import requests
from bs4 import BeautifulSoup
res = requests.get('http://esf.sz.fang.com/')
soup = BeautifulSoup(res.text,'html.parser')
domain = 'http://esf.sz.fang.com'
houslist = []
for house in soup.select('.houseList dl'):
if len(house.select('.title')) > 0:
link = house.select('.title a')[0]['href']
url = domain + link
houslist.append(getHouseDetil(url))
len(houslist)
30
houslist[21]
{'专业度': '5.0',
'二 手 房': '993套',
'产权性质': '商品房',
'住宅类别': '普通住宅',
'使用面积': '126�O',
'参考月供': '',
'参考首付': '47.4万',
'同比去年': '暂无资料',
'好评率': '100%',
'年代': '2016年',
'建筑类别': '板楼',
'建筑面积': '128�O',
'开 发 商': '20160527162320,2016051',
'总价': '158',
'户型': '4室2厅1厨2卫',
'朝向': '南北',
'标题': '碧桂园公园上城、全智能社区、精装四房、南站万达、带',
'满意度': '5.0',
'物 业 费': '2.6元/�O・月',
'物业公司': '广东碧桂园物业服务有限公司',
'物业类型': '住宅',
'环比上月': '↑0.14%',
'真实度': '5.0',
'租 房': '0套',
'结构': '平层',
'绿 化 率': '30.00%',
'装修': '精装修'}
import pandas
df = pandas.DataFrame(houslist)
#df
df.to_excel('/mnt/z/house.xlsx')
url1 = 'http://esf.sz.fang.com/house/i3'
for i in range(1,3):
print (url1 + str(i))
http://esf.sz.fang.com/house/i31
http://esf.sz.fang.com/house/i32
import requests
import pandas
from bs4 import BeautifulSoup
domain = 'http://esf.sz.fang.com'
url1 = 'http://esf.sz.fang.com/house/i3'
houslist = []
for i in range(1,21):
res = requests.get(url1 + str(i))
soup = BeautifulSoup(res.text,'html.parser')
for house in soup.select('.houseList dl'):
if len(house.select('.title')) > 0:
link = house.select('.title a')[0]['href']
url = domain + link
houslist.append(getHouseDetil(url))
df = pandas.DataFrame(houslist)
df.to_excel('/mnt/z/house4.xlsx')
python爬虫(房天下)的更多相关文章
- python爬虫-房天下-登录
房天下-登录 本次爬取的网址为:https://passport.fang.com 一.分析请求 输入用户名和密码,点击登录按钮 请求的参数为: uid: 123456789 pwd: 64ccd42 ...
- python分布式爬虫--房天下
第一步安装redis redis在windows系统中的安装与启动: 下载:redis官方是不支持windows操作系统的.但是微软的开源部门将redis移植到了windows上.因此下载地址不是在r ...
- python爬虫项目(scrapy-redis分布式爬取房天下租房信息)
python爬虫scrapy项目(二) 爬取目标:房天下全国租房信息网站(起始url:http://zu.fang.com/cities.aspx) 爬取内容:城市:名字:出租方式:价格:户型:面积: ...
- 爬虫Scrapy框架运用----房天下二手房数据采集
在许多电商和互联网金融的公司为了更好地服务用户,他们需要爬虫工程师对用户的行为数据进行搜集.分析和整合,为人们的行为选择提供更多的参考依据,去服务于人们的行为方式,甚至影响人们的生活方式.我们的scr ...
- Python爬取房天下二手房信息
一.相关知识 BeautifulSoup4使用 python将信息写入csv import csv with open("11.csv","w") as csv ...
- from appium import webdriver 使用python爬虫,批量爬取抖音app视频(requests+Fiddler+appium)
使用python爬虫,批量爬取抖音app视频(requests+Fiddler+appium) - 北平吴彦祖 - 博客园 https://www.cnblogs.com/stevenshushu/p ...
- Python爬虫利器六之PyQuery的用法
前言 你是否觉得 XPath 的用法多少有点晦涩难记呢? 你是否觉得 BeautifulSoup 的语法多少有些悭吝难懂呢? 你是否甚至还在苦苦研究正则表达式却因为少些了一个点而抓狂呢? 你是否已经有 ...
- 月薪45K的Python爬虫工程师告诉你爬虫应该怎么学,太详细了!
想用Python做爬虫,而你却还不会Python的话,那么这些入门基础知识必不可少.很多小伙伴,特别是在学校的学生,接触到爬虫之后就感觉这个好厉害的样子,我要学.但是却完全不知道从何开始,很迷茫,学的 ...
- Python爬虫实战三之实现山东大学无线网络掉线自动重连
综述 最近山大软件园校区QLSC_STU无线网掉线掉的厉害,连上之后平均十分钟左右掉线一次,很是让人心烦,还能不能愉快地上自习了?能忍吗?反正我是不能忍了,嗯,自己动手,丰衣足食!写个程序解决掉它! ...
随机推荐
- firewalld filter
实现 firewalld 的filter 功能 1. 关闭 INPUT ,关闭OUTPUT (设置黑名单) 任何主机 都 ping 不通 本主机 1>命令 : iptables -P INP ...
- Codechef Racing Horses题解
找一个数组中两数之间最小的不同值. 思路: 1 排序 2 后前相减,比較得到最小不同值 三个数甚至很多其它数之间的不同值都是这么求了,时间效率都是O(nlgn) -- 排序使用的时间 原题: http ...
- php(cli模式)执行文件传递参数
php -f index.php hello test 2314 shell命令执行php文件不像http那样通过GET方式传参 同样php文件获取的时候也不能用$_GET方法了 而是通过$argv[ ...
- (二)Java 简介
Java 简介 Java是由Sun Microsystems公司于1995年5月推出的Java面向对象程序设计语言和Java平台的总称.由James Gosling和同事们共同研发,并在1995年正式 ...
- make常见报错原因分析
1 No rule to make target ‘xxx’ 原因一般是'xxx'文件不存在,首先应该去相应的目录检查文件是否存在.
- sa分析
onCheckedChanged用于监控开启和关闭,其实是Switch,也是Toggle Buttons http://www.google.com/design/spec/components/sw ...
- 使用nginx搭建媒体点播服务器
使用nginx搭建媒体点播服务器 最新由于兴趣,对ubuntu和安卓上的视频点播直播等应用比较感兴趣,所以在vmware的虚拟机里面搭建了一个视频点播网站,参考了fengzhanhai的文章Nginx ...
- JS复制文件(转)
<script type="text/javascript"> var fso, f; function copyFile() { fso = new ActiveXO ...
- Spring MVC标签<mvc: annotation-driven />小结 原
转自:https://my.oschina.net/u/1156626/blog/881483 mvc:annotation-driven的作用 Spring 3.0.x中使用了mvc:annotat ...
- tar zxvf 解压文件提示错误
1.tar -zxvf 提示错误 2. 查看文件之后发现是html格式的.file **(文件名) 3.原来是直接之前sudo wget url ...url连接错误了. 这个url直接在jdk哪里, ...