Python之爬虫-中国大学排名


#!/usr/bin/env python
# coding: utf-8 import bs4
import requests
from bs4 import BeautifulSoup # 通过传入网址信息创建一个获取网页文本的函数
def getHTMLText(url):
# 判断获取网页文本过程中是否有错误
try:
# 打开网址获取文本,并且把延迟设置成30s
r = requests.get(url, timeout=30)
# 获取状态码
r.raise_for_status()
# 设置文件编码
r.encoding = r.apparent_encoding
# 如果成功返回网页文本
return r.text
except:
# 获取网页文本有错误则返回空文本
return "" # 通过传入空列表和网页文本信息创建一个在大学列表中加入大学信息的函数
def fillUnivList(ulist, html):
# 用BeautifulSoup将网页文本以’html.parser‘煮成一锅粥
soup = BeautifulSoup(html, "html.parser")
# 通过网页源代码我们可以发现我们需要的信息都在tbody标签内,因此我们循环找出’tbody‘标签及其子标签的内容
for tr in soup.find('tbody').children:
# 通过bs4.element.Tag判断是否为tr标签
if isinstance(tr, bs4.element.Tag):
# 对于tr标签的我们拿到tr标签里的td标签
tds = tr('td')
# [<td>1</td>, <td><div align="left">清华大学</div></td>, <td>北京</td>, <td>95.3</td>...
# 我们通过筛选出我们需要的td标签中的文本并将其用列表的方式加入我们传入的列表ulist中
ulist.append([tds[0].string, tds[1].string,
tds[2].string, tds[3].string]) # 通过传入学校列表信息创建一个打印大学列表的函数
def printUnivList(ulist,province):
# 打印标题
print("中国最好大学排名2018({}地区)".center(45, '-').format(province))
# 设置一个format格式化的模板
# 注意:这里的{4}是因为utf8格式的英文和中文字节数不同,python会自动用英文来填
tplt = "{0:^10}\t{1:{4}^10}\t{2:^10}\t{3:^10}"
# 充空白位置,我们用chr(12288)将其修改成用中文填充空白位置
# 打印第一行
print(tplt.format("排名", "学校名称", "地区", "总分", chr(12288)))
if province == '安徽':
print(tplt.format(1, '安徽师范大学花津校区', '安徽', 99.9, chr(12288)))
# 循环取出列表中的每一所大学的信息,取出的大学信息是列表的形式(可以控制range(len(ulist))的长度来控制想要打印的学校的数量)
for i in range(len(ulist)):
# 将每一所大学的信息以列表的形式赋值给u
u = ulist[i]
# u[2]是地区,判断是否为安徽地区(可以自己更改地区信息,如果删除该判断,打印所有学校信息,也可以更改判断条件)
if u[2] == province:
# 如果为安徽地区,我们打印属于安徽地区的每一所大学的信息
print(tplt.format(u[0], u[1], u[2], u[3], chr(12288))) # 创建一个运行函数
def main(province='安徽'):
# 创建一个空列表,为填充大学信息列表做准备
uinfo = []
# 定义一个想要爬取的网页
url = 'http://www.zuihaodaxue.cn/zuihaodaxuepaiming2018.html'
# 传入想要爬取的网页获取该网页文本信息
html = getHTMLText(url)
# 给填充大学信息函数传值
fillUnivList(uinfo, html)
# 给打印大学信息函数传值
printUnivList(uinfo,province=province) main()
# main(province='北京')

Python之爬虫-中国大学排名的更多相关文章

  1. python网络爬虫-中国大学排名定向爬虫

    爬虫定向爬取中国大学排名信息 #!/usr/bin/python3 import requests from bs4 import BeautifulSoup import bs4 #从网络上获取大学 ...

  2. python爬取中国大学排名

    教程来自:[Python网络爬虫与信息提取].MOOC. 北京理工大学 目标:爬取最好大学网前50名大学 代码如下: import requests from bs4 import Beautiful ...

  3. python爬虫学习心得:中国大学排名(附代码)

    今天下午花时间学习了python爬虫的中国大学排名实例,颇有心得,于是在博客园与各位分享 首先直接搬代码: import requests from bs4 import BeautifulSoup ...

  4. 【python】下载中国大学MOOC的视频

    [python]下载中国大学MOOC的视频 脚本目标: 输入课程id和cookie下载整个课程的视频文件,方便复习时候看 网站的反爬机制分析: 分析数据包的目的:找到获取m3u8文件的路径 1. 从第 ...

  5. Python 中国大学排名定向爬虫

    代码来自于中国大学Mooc北京理工大学Pythont教学团队:https://www.icourse163.org/learn/BIT-1001870001#/learn/content?type=d ...

  6. python爬虫入门---第二篇:获取2019年中国大学排名

    我们需要爬取的网站:最好大学网 我们需要爬取的内容即为该网页中的表格部分: 该部分的html关键代码为: 其中整个表的标签为<tbody>标签,每行的标签为<tr>标签,每行中 ...

  7. Python 爬虫-获得大学排名

    2017-07-29 23:20:24 主要技术路线:requests+bs4+格式化输出 import requests from bs4 import BeautifulSoup url = 'h ...

  8. Python网络爬虫与信息提取

    1.Requests库入门 Requests安装 用管理员身份打开命令提示符: pip install requests 测试:打开IDLE: >>> import requests ...

  9. 第三次作业-MOOC学习笔记:Python网络爬虫与信息提取

    1.注册中国大学MOOC 2.选择北京理工大学嵩天老师的<Python网络爬虫与信息提取>MOOC课程 3.学习完成第0周至第4周的课程内容,并完成各周作业 第一周 Requests库的爬 ...

随机推荐

  1. 上帝造题的七分钟2/花神游历各国/GSS4 线段树维护区间开方 By cellur925

    题目传送门 或者 另一个传送门 询问区间和都好说.但是开方?? 其实是这样的,一个数(1e9)以内连续开方6次就会变成1,于是我们就可在开方操作上进行暴力修改.暴力修改的意思其实也就是找到叶子节点进行 ...

  2. [POI2007]天然气管道Gaz

    Description Mary试图控制成都的天然气市场.专家已经标示出了最好的天然气井和中转站在成都的地图.现在需要将中转站和天然气井连接起来.每个中转站必须被连接到正好一个钻油井,反之亦然. Ma ...

  3. 1.1.2最小生成树(Kruskal和Prim算法)

    部分内容摘自 勿在浮沙筑高台 http://blog.csdn.net/luoshixian099/article/details/51908175 关于图的几个概念定义: 连通图:在无向图中,若任意 ...

  4. 水题 Codeforces Beta Round #70 (Div. 2) A. Haiku

    题目传送门 /* 水题:三个字符串判断每个是否有相应的元音字母,YES/NO 下午网速巨慢:( */ #include <cstdio> #include <cstring> ...

  5. UML 活动图(转载)

    活动图:用于表示系统中各种活动的次序,它的应用非常广泛,即可用来描述用例的工作流程,也可用来描述类中某个方法的操作行为.常用于表示业务流程,对系统功能建模,强调对象之间的控制流.活动图是由状态图变化而 ...

  6. 给ambari集群里的kafka安装基于web的kafka管理工具Kafka-manager(图文详解)

    不多说,直接上干货! 参考博客 基于Web的Kafka管理器工具之Kafka-manager的编译部署详细安装 (支持kafka0.8.0.9和0.10以后版本)(图文详解)(默认端口或任意自定义端口 ...

  7. apache-storm-1.0.2.tar.gz的集群搭建(3节点)(图文详解)(非HA和HA)

    不多说,直接上干货! Storm的版本选取 我这里,是选用apache-storm-1.0.2.tar.gz apache-storm-0.9.6.tar.gz的集群搭建(3节点)(图文详解) 为什么 ...

  8. 线程池机制使nginx性能提高9倍

    原文标题:Thread Pools in NGINX Boost Performance 9x! 原文官方地址:https://www.nginx.com/blog/thread-pools-boos ...

  9. [译]curl_multi_add_handle

    NAMEcurl_multi_add_handle - add an easy handle to a multi session添加easy handle到multi session中 SYNOPS ...

  10. SQL Server 编程入门

    一.T—SQL 的组成 1.DML(数据操作语言 Data Manipulation Language) 查询.插入.删除和修改数据库中的数据.SELECT.INSERT.UPDATE.DELETE ...