网络爬虫是一种按照一定规则自动抓取万维网信息的程序。在如今网络发展,信息爆炸的时代,信息的处理变得尤为重要。而这之前就需要获取到数据。有关爬虫的概念可以到网上查看详细的说明,今天在这里介绍一下使用urllib进行网络爬虫的方法使用,在最后的一个案例中把最基本的爬虫要素运用进去,可以作为初学者的一个模板,读懂它进行适当修改就可以使用。

  以我的经验来看,在编程上对于陌生的简单的东西,最快的学习方法就是从代码入手了。当然有些很厉害的兄弟,可以完全忽略我这篇博客了。下面的内容我尽量将注释写在代码当中。

1、urllib爬取网页

  下面是通过urllib的request函数来获取网页信息,现在的request库也很方便,不过原理都是一样的。

 import urllib.request

 # 向指定的url地址发送请求并返回服务器响应的数据(文件的对象)
response = urllib.request.urlopen("http://www.baidu.com") # 读取文件的全部内容,会把读到的东西赋值给一个字符串变量
data = response.read()
print(data) # 读取得到的数据
print(type(data)) # 查看数据类型 # 读取一行
data = response.readline() # 读取文件的全部内容,赋值给一个列表变量,优先选择
data = response.readlines()
# print(data)
print(type(data[100]))
print(type(data[100].decode("utf-8"))) # 转字符串
print(len(data)) # 将爬取到的网页写入文件
with open(r"F:/python_note/爬虫/file/file1.html", "wb") as f:
f.write(data) # response 属性 # 返回当前环境的有关信息
print(response.info()) # 返回状态码
print(response.getcode())
# 200为正常,304位为有缓存 # 返回当前正在爬取的url地址
print(response.geturl()) url = "https://www.sogou.com/sgo?query=凯哥学堂&hdq=sogou-wsse-16bda725ae44af3b-0099&lxod=0_16_1_-1_0&lxea=2-1-D-9.0.0.2502-3-CN1307-0-0-2-E96F3D19F4C66A477CE71FD168DD223D-62&lxoq=kaigexuetang&lkx=0&ie=utf8"
url2 = r"https%3A//www.sogou.com/sgo%3Fquery%3D%E5%87%AF%E5%93%A5%E5%AD%A6%E5%A0%82%26hdq%3Dsogou-wsse-16bda725ae44af3b-0099%26lxod%3D0_16_1_-1_0%26lxea%3D2-1-D-9.0.0.2502-3-CN1307-0-0-2-E96F3D19F4C66A477CE71FD168DD223D-62%26lxoq%3Dkaigexuetang%26lkx%3D0%26ie%3Dutf8" newurl = urllib.request.quote(url) # 将含汉字的编码
print(newurl)
newurl2 = urllib.request.unquote(url2) # 解码
print(newurl2) # 端口号,http 80
# https 443

2、爬取到的网页直接写入文件

  将网页信息写入文件可以通过上面的读取然后再写入文件,还有更简便的方法,就是爬取页面的同时写入文件,这个也不难,只是一个函数而已。相信应该可以明白下面的内容,filename后面的内容就是需要存储网页信息的文件路径。

 import urllib.request

 urllib.request.urlretrieve("http://www.baidu.com",
filename=r"F:/python_note/爬虫/file/file2.html") # urlretrieve在执行过程中,会产生一些缓存
# 清除缓存
urllib.request.urlcleanup()

3、模拟浏览器

  我们都知道,进行爬虫的时候,很在乎它的效率,计算机进行获取数据当然会比手动来的快。但是这样一来,你就占用了该网站的大部分带宽,导致其他人上网会很卡。因此,很多网站会有自己的反爬机制,有些只是简单的预防一下。通过网络爬虫进行访问时会有一个爬虫的请求头,那么,可以模拟一下浏览器来访问,也就是把请求头中的信息换成浏览器信息。网上可以找到很多,随便粘贴一个就好了。

 import random
import urllib.request url = "http://www.baidu.com" '''
# 模拟请求头 (这是一种方法,下面使用另一种方法)
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3493.3 Safari/537.36"
}
# 设置一个请求体
req = urllib.request.Request(url, headers=headers)
# 发起请求
response = urllib.request.urlopen(req)
data = response.read()
print(data)
''' agentsList = [
"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36 OPR/26.0.1656.60",
"Opera/8.0 (Windows NT 5.1; U; en)",
"Mozilla/5.0 (Windows NT 5.1; U; en; rv:1.8.1) Gecko/20061208 Firefox/2.0.0 Opera 9.50",
"Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; en) Opera 9.50",
"Mozilla/5.0 (Windows NT 6.1; WOW64; rv:34.0) Gecko/20100101 Firefox/34.0 "
] agentStr = random.choice(agentsList) # 这里是从列表中随机取出一个浏览器信息来改写请求头,避免被网站发现同一个地址快速持续的访问它而被封掉
req = urllib.request.Request(url) # 里面添加头要写成键值对
# 向请求体里添加了User-Agent
req.add_header("User-Agent", agentStr) # 这里添加时传入两个字符串,自动组合 response = urllib.request.urlopen(req)
print(response.read())

4、设置超时

  当访问一直没有被响应时,我们需要让它继续往下进行而不是卡在那里。通过异常捕获来实现。

 import urllib.request

 # 如果网页长时间未响应,系统判断超时,无法爬取
for i in range(1, 100):
try:
response = urllib.request.urlopen("http://www.baidu.com", timeout=0.1)
print(len(response.read()))
except:
print("time out")

5、http请求

  当然有些网站还需要先登录之类的,也就是不仅仅从上面获取信息,还需要上传一些东西,下面介绍一下发送请求的两种方法。

 '''
使用场景:进行客户端与服务端之间的消息传递时使用
GET: 通过url网址传递信息,可以直接在url网址上添加要传递的信息(不安全)
POST: 可以向服务器提交数据,是一种比较流行,安全的数据传递方式
PUT: 请求服务器存储一个资源,通常要指定存储的位置
DELETE: 请求服务器删除一个资源
HEAD: 请求获取对应的http报头信息
OPTIONS: 可以获取当前url所支持的请求类型
''' '''
get请求:
特点:把数据拼接到请求路径后面传递给服务器
优点:速度快
缺点:承载的数据量小,不安全
''' '''
post请求:
特点:把参数进行打包,单独传输
优点:数量大,安全(当对服务器数据进行修改时建议使用post)
缺点:速度慢
'''
import urllib.request
import urllib.parse # 对请求打包的库 url = "http://www.baidu.com"
# 将要发送的数据合成一个字典
# 字典的键去网址里找,一般为input标签的name属性的值
data = {
"username": "xiaoxiao",
"passwd": ""
}
# 对要发送的数据进行打包
postdata = urllib.parse.urlencode(data).encode("utf-8") # 请求体
req = urllib.request.Request(url, data=postdata) # 请求
response = urllib.request.urlopen(req)
print(response.data())

6、json数据解析

 '''
概念:一种保存数据的格式
作用:可以保存本地的json文件,也可以将json串进行传输,通常将json称为轻量级的传输方式
xml可读性更强,但是有很多没有用的标签
json文件组成:
{} 代表对象(字典)
[] 代表列表
: 代表键值对
, 分隔两个部分
''' import json # 将json格式的字符串转换为Python数据类型的对象 jsonStr = '{"name":"xiaoxiao", "age":18, "hobby":["money", "power", "english"], "parames":{"a":1, "b":2}}' jsonData = json.loads(jsonStr)
print(jsonData)
print(type(jsonData))
print(jsonData["hobby"]) jsonData2 = {"name": "xiaoxiao", "age": 18, "hobby": [
"money", "power", "english"], "parames": {"a": 1, "b": 2}}
# python类型的数据就是比json格式少个引号 # 将Python数据类型的对象转换为json格式的字符串 jsonStr2 = json.dumps(jsonData2)
print(jsonStr2)
print(type(jsonStr2))

7、抓取网页动态Ajax请求的数据

  经常浏览一些网页会有这种情况,就是首先加载出一个页面的内容,向下滚动还有内容,在最下面会有一个提示下拉获取更多内容这类的东西。这个可以让加载网页的速度更快,毕竟内容少了嘛,再我们想要看到更多信息时候再加载。对于这样的一部分页面爬取其实也很简单,细心观察一下每次多加载一块的页面时,这时候上方的网址变化可以发现,有些是有数字变化的。可以根据里面的具体规律来修改每次请求的信息。

 import urllib.request
import ssl
import json def ajaxCrawler(url):
headers = {
"User-Agent": "Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10"
}
req = urllib.request.Request(url, headers=headers) # 使用ssl创建未验证的上下文
context = ssl._create_unverified_context() # 访问的是HTTPS response = urllib.request.urlopen(req, context=context)
jsonStr = response.read().decode("utf-8")
print(type(response.read())) # byte型
print(type(response.read().decode("utf-8"))) # json字符串型
jsonData = json.loads(jsonStr)
return jsonData # url = "https://movie.douban.com/j/chart/top_list?type=17&interval_id=100%3A90&action=&start=0&limit=20"
# info = ajaxCrawler(url)
# print(info) for i in range(1, 11):
url = "https://movie.douban.com/j/chart/top_list?type=17&interval_id=100%3A90&action=&start=" + \
str(i * 20) + "&limit=20"
info = ajaxCrawler(url)
print(len(info))

8、糗事百科爬虫

 import urllib.request
import re # https://www.qiushibaike.com/text/page/2/ def jokeCrawler(url):
headers = {
"User-Agent": "Mozilla/5.0 (X11; U; Linux x86_64; zh-CN; rv:1.9.2.10) Gecko/20100922 Ubuntu/10.10 (maverick) Firefox/3.6.10"
}
req = urllib.request.Request(url, headers=headers)
response = urllib.request.urlopen(req) html = response.read().decode("utf-8")
# print(type(html)) pat = r'<div class="author clearfix">(.*?)<span class="stats-vote"><i class="number">'
re_joke = re.compile(pat, re.S) # re.S 使可以匹配换行
divsList = re_joke.findall(html)
# print(divsList)
# print(len(divsList)) dic = {}
for div in divsList:
# 用户名
re_u = re.compile(r"<h2>(.*?)</h2>", re.S)
username = re_u.findall(div)
username = username[0].rstrip()
# print(username)
# 段子
re_d = re.compile(r'<div class="content">\n<span>(.*?)</span>', re.S)
duanzi = re_d.findall(div)
duanzi = duanzi[0].strip()
# print(type(duanzi))
dic[username] = duanzi
return dic # with open(r"F:/python_note/爬虫/file/file2.html", "w") as f:
# f.write(html) url = "https://www.qiushibaike.com/text/page/1/"
info = jokeCrawler(url)
for k, v in info.items():
print(k + ':\n' + v)

urllib爬虫(流程+案例)的更多相关文章

  1. python 爬虫入门----案例爬取上海租房图片

    前言 对于一个net开发这爬虫真真的以前没有写过.这段时间学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup. ...

  2. 自己动手,丰衣足食!Python3网络爬虫实战案例

    本教程是崔大大的爬虫实战教程的笔记:网易云课堂 Python3+Pip环境配置 Windows下安装Python: http://www.cnblogs.com/0bug/p/8228378.html ...

  3. python 爬虫入门案例----爬取某站上海租房图片

    前言 对于一个net开发这爬虫真真的以前没有写过.这段时间开始学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSou ...

  4. 爬虫bs4案例

    案例:使用BeautifuSoup4的爬虫 我们以腾讯社招页面来做演示:http://hr.tencent.com/position.php?&start=10#a 使用BeautifuSou ...

  5. 4.Python爬虫小案例

    1.网络爬虫定义:按照一定的规则,自动的抓取网站信息的程序或者脚本. 2.流程:request打开url得到html文档==浏览器打开源码分析元素节点==通过BeautifulSoup得到想要的数据= ...

  6. urllib爬虫模块

    网络爬虫也称为网络蜘蛛.网络机器人,抓取网络的数据.其实就是用Python程序模仿人点击浏览器并访问网站,而且模仿的越逼真越好.一般爬取数据的目的主要是用来做数据分析,或者公司项目做数据测试,公司业务 ...

  7. 小白必看的Python爬虫流程

    定义: 网络爬虫(Web Spider),又被称为网页蜘蛛,是一种按照一定的规则,自动地抓取网站信息的程序或者脚本. 简介: 网络蜘蛛是一个很形象的名字.如果把互联网比喻成一个蜘蛛网,那么Spider ...

  8. Python 小爬虫流程总结

    接触Python3一个月了,在此分享一下知识点,也算是温故而知新了. 接触python之前是做前端的.一直希望接触面能深一点.因工作需求开始学python,几乎做的都是爬虫..第一个demo就是爬取X ...

  9. Python爬虫入门案例:获取百词斩已学单词列表

    百词斩是一款很不错的单词记忆APP,在学习过程中,它会记录你所学的每个单词及你答错的次数,通过此列表可以很方便地找到自己在记忆哪些单词时总是反复出错记不住.我们来用Python来爬取这些信息,同时学习 ...

随机推荐

  1. CSS之精灵图(雪碧图)与字体图标

    本文内容: 精灵图 字体图标 首发日期:2018-05-01 精灵图: 在以前,每个图片资源都是独立的一张张图片,浏览器访问网站中的不同网页时是重复获取这一张张图片的,这代表需要访问很多次资源. 为了 ...

  2. SQL中的ALL,ANY,SOME的用法

    准备两个表: --T1(2,3)--T2(1,2,3,4) --ALL,ANY,SOME 的子查询-- >ALL 父查询中的结果集大于子查询中每一个结果集中的值,则为真SELECT * FROM ...

  3. [20190305]删除审计登录信息不适合使用logrotate.txt

    [20190305]删除审计登录信息不适合使用logrotate.txt --//生产系统数据库sys用户登录会在/u01/app/oracle/admin/${ORACLE_SID}/adump/目 ...

  4. Linux系统修改日期时间

    linux修改时间   服务器时间与网络时间不符: 一.手动修改 1. date命令:查看当前时间 2. date -s  时分秒 :修改时间 还需要把日期改过来 3. date -s  完整日期时间 ...

  5. 区块链会与io域名有什么关系

    为什么区块链会与io域名有这么大的联系? 近几年,区块链成为各国央行到国内外各大商业银行.联合国.国际货币基金组织到许多国家政府研究机构讨论的热点,"区块链+"应用创新正在成为引领 ...

  6. python之bytes和string

    转自:https://www.cnblogs.com/skiler/p/6687337.html 1.bytes主要是给在计算机看的,string主要是给人看的 2.中间有个桥梁就是编码规则,现在大趋 ...

  7. DubboAdmin部署

    1.软件下载 部署管理后台和监控中心需要以下软件 opensesame  下载地址:https://github.com/alibaba/opensesame Dubbo源码下载  https://g ...

  8. LeetCode算法题-Valid Palindrome(Java实现)

    这是悦乐书的第174次更新,第176篇原创 01 看题和准备 今天介绍的是LeetCode算法题中Easy级别的第33题(顺位题号是125).给定一个字符串,确定它是否是回文,只考虑字母数字字符并忽略 ...

  9. Maven将中央仓库修改为阿里云的仓库地址

    <mirror> <id>nexus-aliyun</id> <mirrorOf>*</mirrorOf> <name>Nexu ...

  10. 单片机与android手机通信(控制LED小灯亮灭)

    1.单片机实验板功能设计 为验证数据通信内容,让单片机板上的四个按键与android手机客户端上的四个LED灯相互控制:为达到上述基本实验要求,采用单字符传输数据即可,硬件需设计两块相同的单片机电路板 ...