import requests
from bs4 import BeautifulSoup
import bs4 def get_html_text(url):
try:
#kv = {'user-agent':'Mozilla/5.0'}
r = requests.get(url, timeout = 30)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
return "crawl error" def fill_info(ulist, html):
soup = BeautifulSoup(html, 'html.parser')
for tr in soup.find('tbody').children:
if isinstance(tr, bs4.element.Tag):
tds = tr.find_all('td')
ulist.append([tds[0].string, tds[1].string, tds[2].string]) def print_info(ulist, num):
for i in range(num):
u = ulist[i]
uu = ""
uu += u[0] + "\t\t\t\t"
uu += u[1] + "\t\t\t\t"
uu += u[2]
print(uu) if __name__ == "__main__":
uinfo = []
url = "http://www.zuihaodaxue.com/zuihaodaxuepaiming2019.html"
html = get_html_text(url)
fill_info(uinfo, html)
print_info(uinfo, 104)
1                清华大学                北京
2 北京大学 北京
3 浙江大学 浙江
4 上海交通大学 上海
5 复旦大学 上海
6 中国科学技术大学 安徽
7 华中科技大学 湖北
7 南京大学 江苏
9 中山大学 广东
10 哈尔滨工业大学 黑龙江
11 北京航空航天大学 北京
12 武汉大学 湖北
13 同济大学 上海
14 西安交通大学 陕西
15 四川大学 四川
16 北京理工大学 北京
17 东南大学 江苏
18 南开大学 天津
19 天津大学 天津
20 华南理工大学 广东
21 中南大学 湖南
22 北京师范大学 北京
23 山东大学 山东
23 厦门大学 福建
25 吉林大学 吉林
26 大连理工大学 辽宁
27 电子科技大学 四川
28 湖南大学 湖南
29 苏州大学 江苏
30 西北工业大学 陕西
31 中国人民大学 北京
32 华东师范大学 上海
33 南京航空航天大学 江苏
34 对外经济贸易大学 北京
35 南方科技大学 广东
36 华东理工大学 上海
37 重庆大学 重庆
38 南京理工大学 江苏
39 北京科技大学 北京
40 东北大学 辽宁
41 上海大学 上海
42 北京邮电大学 北京
42 上海财经大学 上海
42 中国农业大学 北京
45 武汉理工大学 湖北
46 北京交通大学 北京
46 华中师范大学 湖北
48 西安电子科技大学 陕西
49 中央财经大学 北京
50 北京化工大学 北京
51 暨南大学 广东
52 东华大学 上海
52 兰州大学 甘肃
52 中南财经政法大学 湖北
55 宁波诺丁汉大学 浙江
56 哈尔滨工程大学 黑龙江
56 华北电力大学 北京
58 深圳大学 广东
59 江南大学 江苏
59 南京师范大学 江苏
61 北京工业大学 北京
62 福州大学 福建
63 北京外国语大学 北京
63 北京语言大学 北京
63 中国地质大学(武汉) 湖北
66 西南交通大学 四川
67 华中农业大学 湖北
67 中国海洋大学 山东
69 南京农业大学 江苏
70 上海外国语大学 上海
71 中国矿业大学 江苏
72 中国地质大学(北京) 北京
73 东北财经大学 辽宁
73 西南财经大学 四川
73 西南大学 重庆
76 东北师范大学 吉林
76 南京邮电大学 江苏
76 中国政法大学 北京
79 河海大学 江苏
80 南京信息工程大学 江苏
81 西北农林科技大学 陕西
82 中国石油大学(华东) 山东
83 合肥工业大学 安徽
84 陕西师范大学 陕西
85 华南师范大学 广东
85 江苏大学 江苏
87 南京工业大学 江苏
87 中国石油大学(北京) 北京
89 西北大学 陕西
89 浙江工业大学 浙江
91 北京林业大学 北京
91 湖南师范大学 湖南
91 浙江师范大学 浙江
94 首都师范大学 北京
95 汕头大学 广东
96 中国传媒大学 北京
97 杭州电子科技大学 浙江
98 扬州大学 江苏
99 安徽大学 安徽
100 华侨大学 福建
101 宁波大学 浙江
101 首都经济贸易大学 北京
101 西交利物浦大学 江苏
104 燕山大学 河北 Process finished with exit code 0

输出

python爬虫模板 - 最好大学网的更多相关文章

  1. Python爬虫爬取全书网小说,程序源码+程序详细分析

    Python爬虫爬取全书网小说教程 第一步:打开谷歌浏览器,搜索全书网,然后再点击你想下载的小说,进入图一页面后点击F12选择Network,如果没有内容按F5刷新一下 点击Network之后出现如下 ...

  2. python爬虫:爬取慕课网视频

    前段时间安装了一个慕课网app,发现不用注册就可以在线看其中的视频,就有了想爬取其中的视频,用来在电脑上学习.决定花两天时间用学了一段时间的python做一做.(我的新书<Python爬虫开发与 ...

  3. Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储

    Python爬虫可以说是好玩又好用了.现想利用Python爬取网页股票数据保存到本地csv数据文件中,同时想把股票数据保存到MySQL数据库中.需求有了,剩下的就是实现了. 在开始之前,保证已经安装好 ...

  4. Python 爬虫 爬校花网!!

    爬虫:是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本 1.福利来了  校花网 ,首先说为什么要爬这个网站呢,第一这个网站简单爬起来容易不会受到打击,第二呢 你懂得... 1.第一步,需要下载 ...

  5. Python爬虫 爬取百合网的女人们和男人们

    学Python也有段时间了,目前学到了Python的类.个人感觉Python的类不应称之为类,而应称之为数据类型,只是数据类型而已!只是数据类型而已!只是数据类型而已!重要的事情说三篇. 据书上说一个 ...

  6. Python 爬虫: 抓取花瓣网图片

    接触Python也好长时间了,一直没什么机会使用,没有机会那就自己创造机会!呐,就先从爬虫开始吧,抓点美女图片下来. 废话不多说了,讲讲我是怎么做的. 1. 分析网站 想要下载图片,只要知道图片的地址 ...

  7. Python爬虫入门教程 21-100 网易云课堂课程数据抓取

    写在前面 今天咱们抓取一下网易云课堂的课程数据,这个网站的数据量并不是很大,我们只需要使用requests就可以快速的抓取到这部分数据了. 你第一步要做的是打开全部课程的地址,找出爬虫规律, 地址如下 ...

  8. 项目: python爬虫 福利 煎蛋网妹子图

    嘿嘿嘿! 嘿嘿嘿! 福利一波, 之前看小甲鱼的python教学视频的时候, 看到上面教的爬虫, 爬美女图片的, 心很痒痒, 但是不知道为啥, 按照视频一个字一个字敲的代码,总是报错, 有一天花了 一下 ...

  9. python爬虫爬取赶集网数据

    一.创建项目 scrapy startproject putu 二.创建spider文件 scrapy genspider  patubole patubole.com   三.利用chrome浏览器 ...

随机推荐

  1. Python+MySQL随机试卷及答案生成程序

    一.背景 本文章主要是分享如何使用Python从MySQL数据库中面抽取试题,生成的试卷每一份都不一样. 二.准备工作 1.安装Python3 下载地址:https://www.python.org/ ...

  2. 【Linux】snmp在message中报错: /etc/snmp/snmpd.conf: line 311: Error: ERROR: This output format has been de

    Apr 17 17:36:17 localhost snmpd[2810]: /etc/snmp/snmpd.conf: line 311: Error: ERROR: This output for ...

  3. 【Linux】用yum来下载rpm,而不安装

    方法一:yum yum命令本身就可以用来下载一个RPM包,标准的yum命令提供了--downloadonly(只下载)的选项来达到这个目的. $ sudo yum install --download ...

  4. 【RAC】11gRAC 搭建(VMware+裸设备)

    安装环境与网络规划 安装环境 主机操作系统:windows 7虚拟机VMware12:两台Oracle Linux R6 U5 x86_64 Oracle Database software: Ora ...

  5. Electron入门Demo之桌面应用计算器笔记(二)

    码文不易啊,转载请带上本文链接呀,感谢感谢 https://www.cnblogs.com/echoyya/p/14307996.html 在之前总结了一篇自学笔记,通过之前学习到的方法和知识,完成了 ...

  6. 图像分割论文 | DRN膨胀残差网络 | CVPR2017

    文章转自:同作者个人微信公众号[机器学习炼丹术].欢迎交流沟通,共同进步,作者微信:cyx645016617 论文名称:'Dilated Residual Networks' 论文链接:https:/ ...

  7. Ubuntu20.04 安装火狐开发者版本(水狐)步骤

    1. 从Mozilla Firefox Developer Edition webpage下载. 2. 将下载的"tar.bz2"文件解压到指定目录, 例如/opt/firefox ...

  8. django ajax应用

    ajax: 什么是ajax,有什么作用: 以前我们在页面向后台提交数据的时候都是使用from表单,这样的提交会在提交的时候将整个页面全部刷新,如果你在填写表单的时候提交之后发现某个数据不对,但是你已提 ...

  9. 最佳的思维导图生成工具——markmap 使用教程

    前言 相信很多程序员朋友都有在用 Markdown 吧,我是大三找实习工作的时候接触到的,简历就是用 Markdown 写的. Markdown 的好处是专注码字的同时还能兼顾排版,不用像 word ...

  10. LVS负载均衡理论以及算法概要

    一. LVS简介 LVS是Linux Virtual Server的简称,也就是Linux虚拟服务器, 由章文嵩博士发起的自由软件项目,它的官方站点是www.linuxvirtualserver.or ...