import requests
from bs4 import BeautifulSoup
import bs4 def get_html_text(url):
try:
#kv = {'user-agent':'Mozilla/5.0'}
r = requests.get(url, timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return "crawl error" def fill_info(ulist, html):
soup = BeautifulSoup(html, 'html.parser')
for tr in soup.find('tbody').children:
if isinstance(tr, bs4.element.Tag):
tds = tr.find_all('td')
ulist.append([tds[0].string, tds[1].string, tds[2].string]) def print_info(ulist, num):
for i in range(num):
u = ulist[i]
uu = ""
uu += u[0] + "\t\t\t\t"
uu += u[1] + "\t\t\t\t"
uu += u[2]
print(uu) if __name__ == "__main__":
uinfo = []
url = "http://www.zuihaodaxue.com/zuihaodaxuepaiming2019.html"
html = get_html_text(url)
fill_info(uinfo, html)
print_info(uinfo, 104)
1                清华大学                北京
2 北京大学 北京
3 浙江大学 浙江
4 上海交通大学 上海
5 复旦大学 上海
6 中国科学技术大学 安徽
7 华中科技大学 湖北
7 南京大学 江苏
9 中山大学 广东
10 哈尔滨工业大学 黑龙江
11 北京航空航天大学 北京
12 武汉大学 湖北
13 同济大学 上海
14 西安交通大学 陕西
15 四川大学 四川
16 北京理工大学 北京
17 东南大学 江苏
18 南开大学 天津
19 天津大学 天津
20 华南理工大学 广东
21 中南大学 湖南
22 北京师范大学 北京
23 山东大学 山东
23 厦门大学 福建
25 吉林大学 吉林
26 大连理工大学 辽宁
27 电子科技大学 四川
28 湖南大学 湖南
29 苏州大学 江苏
30 西北工业大学 陕西
31 中国人民大学 北京
32 华东师范大学 上海
33 南京航空航天大学 江苏
34 对外经济贸易大学 北京
35 南方科技大学 广东
36 华东理工大学 上海
37 重庆大学 重庆
38 南京理工大学 江苏
39 北京科技大学 北京
40 东北大学 辽宁
41 上海大学 上海
42 北京邮电大学 北京
42 上海财经大学 上海
42 中国农业大学 北京
45 武汉理工大学 湖北
46 北京交通大学 北京
46 华中师范大学 湖北
48 西安电子科技大学 陕西
49 中央财经大学 北京
50 北京化工大学 北京
51 暨南大学 广东
52 东华大学 上海
52 兰州大学 甘肃
52 中南财经政法大学 湖北
55 宁波诺丁汉大学 浙江
56 哈尔滨工程大学 黑龙江
56 华北电力大学 北京
58 深圳大学 广东
59 江南大学 江苏
59 南京师范大学 江苏
61 北京工业大学 北京
62 福州大学 福建
63 北京外国语大学 北京
63 北京语言大学 北京
63 中国地质大学(武汉) 湖北
66 西南交通大学 四川
67 华中农业大学 湖北
67 中国海洋大学 山东
69 南京农业大学 江苏
70 上海外国语大学 上海
71 中国矿业大学 江苏
72 中国地质大学(北京) 北京
73 东北财经大学 辽宁
73 西南财经大学 四川
73 西南大学 重庆
76 东北师范大学 吉林
76 南京邮电大学 江苏
76 中国政法大学 北京
79 河海大学 江苏
80 南京信息工程大学 江苏
81 西北农林科技大学 陕西
82 中国石油大学(华东) 山东
83 合肥工业大学 安徽
84 陕西师范大学 陕西
85 华南师范大学 广东
85 江苏大学 江苏
87 南京工业大学 江苏
87 中国石油大学(北京) 北京
89 西北大学 陕西
89 浙江工业大学 浙江
91 北京林业大学 北京
91 湖南师范大学 湖南
91 浙江师范大学 浙江
94 首都师范大学 北京
95 汕头大学 广东
96 中国传媒大学 北京
97 杭州电子科技大学 浙江
98 扬州大学 江苏
99 安徽大学 安徽
100 华侨大学 福建
101 宁波大学 浙江
101 首都经济贸易大学 北京
101 西交利物浦大学 江苏
104 燕山大学 河北 Process finished with exit code 0

输出

python爬虫模板 - 最好大学网的更多相关文章

  1. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  2. python爬虫:爬取慕课网视频

    前段时间安装了一个慕课网app,发现不用注册就可以在线看其中的视频,就有了想爬取其中的视频,用来在电脑上学习.决定花两天时间用学了一段时间的python做一做.(我的新书<Python爬虫开发与 ...

  3. Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  4. Python 爬虫 爬校花网!!

    爬虫:是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本 1.福利来了  校花网 ,首先说为什么要爬这个网站呢,第一这个网站简单爬起来容易不会受到打击,第二呢 你懂得... 1.第一步,需要下载 ...

  5. Python爬虫 爬取百合网的女人们和男人们

    学Python也有段时间了,目前学到了Python的类.个人感觉Python的类不应称之为类,而应称之为数据类型,只是数据类型而已!只是数据类型而已!只是数据类型而已!重要的事情说三篇. 据书上说一个 ...

  6. Python 爬虫: 抓取花瓣网图片

    接触Python也好长时间了,一直没什么机会使用,没有机会那就自己创造机会!呐,就先从爬虫开始吧,抓点美女图片下来. 废话不多说了,讲讲我是怎么做的. 1. 分析网站 想要下载图片,只要知道图片的地址 ...

  7. Python爬虫入门教程 21-100 网易云课堂课程数据抓取

    写在前面 今天咱们抓取一下网易云课堂的课程数据,这个网站的数据量并不是很大,我们只需要使用requests就可以快速的抓取到这部分数据了. 你第一步要做的是打开全部课程的地址,找出爬虫规律, 地址如下 ...

  8. 项目: python爬虫 福利 煎蛋网妹子图

    嘿嘿嘿! 嘿嘿嘿! 福利一波, 之前看小甲鱼的python教学视频的时候, 看到上面教的爬虫, 爬美女图片的, 心很痒痒, 但是不知道为啥, 按照视频一个字一个字敲的代码,总是报错, 有一天花了 一下 ...

  9. python爬虫爬取赶集网数据

    一.创建项目 scrapy startproject putu 二.创建spider文件 scrapy genspider  patubole patubole.com   三.利用chrome浏览器 ...

随机推荐

  1. PHP将数据集转换成树状结构

    /** * 把返回的数据集转换成Tree * @param array $list 要转换的数据集 * @param string $pid parent标记字段 * @param string $l ...

  2. (数据科学学习手札103)Python+Dash快速web应用开发——页面布局篇

    本文示例代码已上传至我的Github仓库https://github.com/CNFeffery/DataScienceStudyNotes 1 简介 这是我的系列教程Python+Dash快速web ...

  3. Azure Terraform(四)状态文件存储

    一,引言 我们都知道在执行部署计划之后,当前目录中就产生了名叫 "" 的 Terraform 的状态文件,该文件中记录了已部署资源的状态.默认情况下,在执行部署计划后,Terraf ...

  4. innodb日志文件大小

    innodb是用多个文件作为一组循环日志,通常不需要修改默认的日志数量,只修改每个日志文件的大小即可,要修改日志文件大小,需要完全关闭mysql,将旧的日志文件移到其他地方保存,重新配置参数,然后重启 ...

  5. iostat的输出

    第一行显示的时子系统启动以来的平均值,接下来的报告显示了增量的平均值,每个设备一行 Device:         rrqm/s   wrqm/s     r/s     w/s   rsec/s   ...

  6. Nginx(四):http服务器静态文件查找的实现

    上一篇nginx的文章中,我们理解了整个http正向代理的运行流程原理,主要就是事件机制接入,header解析,body解析,然后遍历各种checker,直到处理成功为止. 我们以访问一个普通文件为例 ...

  7. 【MySQL】Last_SQL_Errno: 1594Relay log read failure: Could not parse relay log event entry...问题总结处理

    备库报错: Last_SQL_Errno: 1594 Last_SQL_Error: Relay log read failure: Could not parse relay log event e ...

  8. 【Linux】同时插入多行数据到文本文件中

    如果想同时插入多行数据到指定的文本中,可以用下面的命令EOF cat >> test.txt <<EOF 1234 5678 GOOD EOF 将上述3行插入到 test.tx ...

  9. 【CRS】vipca最后一步执行报错CRS-0215

    当我们在安装Clusterware 的时候, 需要在第二节点上vipca , 配置到最后安装的时候, 安装到 75% 左右,报错:     CRS-0215 : Could not start res ...

  10. Kubernetes 升级过程记录:从 1.17.0 升级至最新版 1.20.2

    本文记录的是将 kubernetes 集群从 1.17.0 升级至最新版 1.20.2 的实际操作步骤,由于 1.17.0 无法直接升级到 1.20.2,需要进行2次过滤升级,1.17.0 -> ...