[Python3网络爬虫开发实战] 3.1.3-解析链接
前面说过,urllib库里还提供了parse
这个模块,它定义了处理URL的标准接口,例如实现URL各部分的抽取、合并以及链接转换。它支持如下协议的URL处理:file、ftp、gopher、hdl、http、https、imap、mailto、 mms、news、nntp、prospero、rsync、rtsp、rtspu、sftp、 sip、sips、snews、svn、svn+ssh、telnet和wais。本节中,我们介绍一下该模块中常用的方法来看一下它的便捷之处。
1. urlparse()
该方法可以实现URL的识别和分段,这里先用一个实例来看一下:
1
2
3
4
|
from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment')
print(type(result), result)
|
这里我们利用urlparse()
方法进行了一个URL的解析。首先,输出了解析结果的类型,然后将结果也输出出来。
运行结果如下:
1
2
|
<class 'urllib.parse.ParseResult'>
ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5', fragment='comment')
|
可以看到,返回结果是一个ParseResult
类型的对象,它包含6部分,分别是scheme
、netloc
、path
、params
、query
和fragment
。
观察一下该实例的URL:
1
|
http://www.baidu.com/index.html;user?id=5#comment
|
可以发现,urlparse()
方法将其拆分成了6部分。大体观察可以发现,解析时有特定的分隔符。比如,://前面的就是scheme
,代表协议;第一个/前面便是netloc
,即域名;分号;前面是params
,代表参数。
所以,可以得出一个标准的链接格式,具体如下:
1
|
scheme://netloc/path;parameters?query#fragment
|
一个标准的URL都会符合这个规则,利用urlparse()
方法可以将它拆分开来。
除了这种最基本的解析方式外,urlparse()
方法还有其他配置吗?接下来,看一下它的API用法:
1
|
urllib.parse.urlparse(urlstring, scheme='', allow_fragments=True)
|
可以看到,它有3个参数。
urlstring
:这是必填项,即待解析的URL。scheme
:它是默认的协议(比如http
或https
等)。假如这个链接没有带协议信息,会将这个作为默认的协议。我们用实例来看一下:
1
2
3
4
|
from urllib.parse import urlparse
result = urlparse('www.baidu.com/index.html;user?id=5#comment', scheme='https')
print(result)
|
运行结果如下:
1
|
ParseResult(scheme='https', netloc='', path='www.baidu.com/index.html', params='user', query='id=5', fragment='comment')
|
可以发现,我们提供的URL没有包含最前面的scheme
信息,但是通过指定默认的scheme
参数,返回的结果是https
。
假设我们带上了scheme
:
1
|
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', scheme='https')
|
则结果如下:
1
|
ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5', fragment='comment')
|
可见,scheme
参数只有在URL中不包含scheme
信息时才生效。如果URL中有scheme
信息,就会返回解析出的scheme
。
allow_fragments
:即是否忽略fragment
。如果它被设置为False
,fragment
部分就会被忽略,它会被解析为path
、parameters
或者query
的一部分,而fragment
部分为空。下面我们用实例来看一下:
1
2
3
4
|
from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', allow_fragments=False)
print(result)
|
运行结果如下:
1
|
ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5#comment', fragment='')
|
假设URL中不包含params
和query
,我们再通过实例看一下:
1
2
3
4
|
from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=False)
print(result)
|
运行结果如下:
1
|
ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html#comment', params='', query='', fragment='')
|
可以发现,当URL中不包含params
和query
时,fragment
便会被解析为path
的一部分。
返回结果ParseResult
实际上是一个元组,我们可以用索引顺序来获取,也可以用属性名获取。示例如下:
1
2
3
4
|
from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=False)
print(result.scheme, result[0], result.netloc, result[1], sep='\n')
|
这里我们分别用索引和属性名获取了scheme
和netloc
,其运行结果如下:
1
2
3
4
|
http
http
www.baidu.com
www.baidu.com
|
可以发现,二者的结果是一致的,两种方法都可以成功获取。
2. urlunparse()
有了urlparse()
,相应地就有了它的对立方法urlunparse()
。它接受的参数是一个可迭代对象,但是它的长度必须是6,否则会抛出参数数量不足或者过多的问题。先用一个实例看一下:
1
2
3
4
|
from urllib.parse import urlunparse
data = ['http', 'www.baidu.com', 'index.html', 'user', 'a=6', 'comment']
print(urlunparse(data))
|
这里参数data
用了列表类型。当然,你也可以用其他类型,比如元组或者特定的数据结构。
运行结果如下:
1
|
http://www.baidu.com/index.html;user?a=6#comment
|
这样我们就成功实现了URL的构造。
3. urlsplit()
这个方法和urlparse()
方法非常相似,只不过它不再单独解析params
这一部分,只返回5个结果。上面例子中的params
会合并到path
中。示例如下:
1
2
3
4
|
from urllib.parse import urlsplit
result = urlsplit('http://www.baidu.com/index.html;user?id=5#comment')
print(result)
|
运行结果如下:
1
|
SplitResult(scheme='http', netloc='www.baidu.com', path='/index.html;user', query='id=5', fragment='comment')
|
可以发现,返回结果是SplitResult
,它其实也是一个元组类型,既可以用属性获取值,也可以用索引来获取。示例如下:
1
2
3
4
|
from urllib.parse import urlsplit
result = urlsplit('http://www.baidu.com/index.html;user?id=5#comment')
print(result.scheme, result[0])
|
运行结果如下:
1
|
http http
|
4. urlunsplit()
与urlunparse()
类似,它也是将链接各个部分组合成完整链接的方法,传入的参数也是一个可迭代对象,例如列表、元组等,唯一的区别是长度必须为5。示例如下:
1
2
3
4
|
from urllib.parse import urlunsplit
data = ['http', 'www.baidu.com', 'index.html', 'a=6', 'comment']
print(urlunsplit(data))
|
运行结果如下:
1
|
http://www.baidu.com/index.html?a=6#comment
|
5. urljoin()
有了urlunparse()
和urlunsplit()
方法,我们可以完成链接的合并,不过前提必须要有特定长度的对象,链接的每一部分都要清晰分开。
此外,生成链接还有另一个方法,那就是urljoin()
方法。我们可以提供一个base_url
(基础链接)作为第一个参数,将新的链接作为第二个参数,该方法会分析base_url
的scheme
、netloc
和path
这3个内容并对新链接缺失的部分进行补充,最后返回结果。
下面通过几个实例看一下:
1
2
3
4
5
6
7
8
9
10
|
from urllib.parse import urljoin
print(urljoin('http://www.baidu.com', 'FAQ.html'))
print(urljoin('http://www.baidu.com', 'https://cuiqingcai.com/FAQ.html'))
print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html'))
print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html?question=2'))
print(urljoin('http://www.baidu.com?wd=abc', 'https://cuiqingcai.com/index.php'))
print(urljoin('http://www.baidu.com', '?category=2#comment'))
print(urljoin('www.baidu.com', '?category=2#comment'))
print(urljoin('www.baidu.com#comment', '?category=2'))
|
运行结果如下:
1
2
3
4
5
6
7
8
|
http://www.baidu.com/FAQ.html
https://cuiqingcai.com/FAQ.html
https://cuiqingcai.com/FAQ.html
https://cuiqingcai.com/FAQ.html?question=2
https://cuiqingcai.com/index.php
http://www.baidu.com?category=2#comment
www.baidu.com?category=2#comment
www.baidu.com?category=2
|
可以发现,base_url
提供了三项内容scheme
、netloc
和path
。如果这3项在新的链接里不存在,就予以补充;如果新的链接存在,就使用新的链接的部分。而base_url
中的params
、query
和fragment
是不起作用的。
通过urljoin()
方法,我们可以轻松实现链接的解析、拼合与生成。
6. urlencode()
这里我们再介绍一个常用的方法——urlencode()
,它在构造GET请求参数的时候非常有用,示例如下:
1
2
3
4
5
6
7
8
9
|
from urllib.parse import urlencode
params = {
'name': 'germey',
'age': 22
}
base_url = 'http://www.baidu.com?'
url = base_url + urlencode(params)
print(url)
|
这里首先声明了一个字典来将参数表示出来,然后调用urlencode()
方法将其序列化为GET请求参数。
运行结果如下:
1
|
http://www.baidu.com?name=germey&age=22
|
可以看到,参数就成功地由字典类型转化为GET请求参数了。
这个方法非常常用。有时为了更加方便地构造参数,我们会事先用字典来表示。要转化为URL的参数时,只需要调用该方法即可。
7. parse_qs()
有了序列化,必然就有反序列化。如果我们有一串GET请求参数,利用parse_qs()
方法,就可以将它转回字典,示例如下:
1
2
3
4
|
from urllib.parse import parse_qs
query = 'name=germey&age=22'
print(parse_qs(query))
|
运行结果如下:
1
|
{'name': ['germey'], 'age': ['22']}
|
可以看到,这样就成功转回为字典类型了。
8. parse_qsl()
另外,还有一个parse_qsl()
方法,它用于将参数转化为元组组成的列表,示例如下:
1
2
3
4
|
from urllib.parse import parse_qsl
query = 'name=germey&age=22'
print(parse_qsl(query))
|
运行结果如下:
1
|
[('name', 'germey'), ('age', '22')]
|
可以看到,运行结果是一个列表,而列表中的每一个元素都是一个元组,元组的第一个内容是参数名,第二个内容是参数值。
9. quote()
该方法可以将内容转化为URL编码的格式。URL中带有中文参数时,有时可能会导致乱码的问题,此时用这个方法可以将中文字符转化为URL编码,示例如下:
1
2
3
4
5
|
from urllib.parse import quote
keyword = '壁纸'
url = 'https://www.baidu.com/s?wd=' + quote(keyword)
print(url)
|
这里我们声明了一个中文的搜索文字,然后用quote()
方法对其进行URL编码,最后得到的结果如下:
1
|
https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8
|
10. unquote()
有了quote()
方法,当然还有unquote()
方法,它可以进行URL解码,示例如下:
1
2
3
4
|
from urllib.parse import unquote
url = 'https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8'
print(unquote(url))
|
这是上面得到的URL编码后的结果,这里利用unquote()
方法还原,结果如下:
1
|
https://www.baidu.com/s?wd=壁纸
|
可以看到,利用unquote()
方法可以方便地实现解码。
本节中,我们介绍了parse
模块的一些常用URL处理方法。有了这些方法,我们可以方便地实现URL的解析和构造,建议熟练掌握。
[Python3网络爬虫开发实战] 3.1.3-解析链接的更多相关文章
- 崔庆才Python3网络爬虫开发实战电子版书籍分享
资料下载地址: 链接:https://pan.baidu.com/s/1WV-_XHZvYIedsC1GJ1hOtw 提取码:4o94 <崔庆才Python3网络爬虫开发实战>高清中文版P ...
- 《Python3 网络爬虫开发实战》开发环境配置过程中踩过的坑
<Python3 网络爬虫开发实战>学习资料:https://www.cnblogs.com/waiwai14/p/11698175.html 如何从墙内下载Android Studio: ...
- 《Python3 网络爬虫开发实战》学习资料
<Python3 网络爬虫开发实战> 学习资料 百度网盘:https://pan.baidu.com/s/1PisddjC9e60TXlCFMgVjrQ
- Python3网络爬虫开发实战PDF高清完整版免费下载|百度云盘
百度云盘:Python3网络爬虫开发实战高清完整版免费下载 提取码:d03u 内容简介 本书介绍了如何利用Python 3开发网络爬虫,书中首先介绍了环境配置和基础知识,然后讨论了urllib.req ...
- 转:【Python3网络爬虫开发实战】 requests基本用法
1. 准备工作 在开始之前,请确保已经正确安装好了requests库.如果没有安装,可以参考1.2.1节安装. 2. 实例引入 urllib库中的urlopen()方法实际上是以GET方式请求网页,而 ...
- 《Python3网络爬虫开发实战》PDF+源代码+《精通Python爬虫框架Scrapy》中英文PDF源代码
下载:https://pan.baidu.com/s/1oejHek3Vmu0ZYvp4w9ZLsw <Python 3网络爬虫开发实战>中文PDF+源代码 下载:https://pan. ...
- 《Python3网络爬虫开发实战》
推荐:★ ★ ★ ★ ★ 第1章 开发环境配置 第2章 网页基础知识 第3章 网络爬虫基础 第4章 基本库的使用 第5章 解析库的使用 第6章 数据存储 第7章 Ajax数据爬取 第8章 动态渲染页面 ...
- [Python3网络爬虫开发实战] 3.1.4-分析Robots协议
利用urllib的robotparser模块,我们可以实现网站Robots协议的分析.本节中,我们来简单了解一下该模块的用法. 1. Robots协议 Robots协议也称作爬虫协议.机器人协议,它的 ...
- [Python3网络爬虫开发实战] 2.3-爬虫的基本原理
我们可以把互联网比作一张大网,而爬虫(即网络爬虫)便是在网上爬行的蜘蛛.把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息.可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛 ...
随机推荐
- python 面向对象三 访问权限 下划线 双下划线
一.双下划线 如果要让内部属性不被外部访问,可以把属性的名称前加上两个下划线__,在Python中,实例的变量名如果以__开头,就变成了一个私有变量(private),只有内部可以访问,外部不能访问. ...
- bzoj P2045 方格取数加强版【最大费用最大流】
今天脑子不太清醒,把数据范围看小了一直TTTTLE-- 最大费用最大流,每个格子拆成两个(x,y),(x,y)',(x,y)向(x,y)'连一条费用a[x][y]流量1的边表示选的一次,再连一条费用0 ...
- bzoj 1797: [Ahoi2009]Mincut 最小割【tarjan+最小割】
先跑一遍最大流,然后对残量网络(即所有没有满流的边)进行tarjan缩点. 能成为最小割的边一定满流:因为最小割不可能割一半的边: 连接s.t所在联通块的满流边一定在最小割里:如果不割掉这条边的话,就 ...
- 洛谷P4216 [SCOI2015]情报传递(树剖+主席树)
传送门 我们可以进行离线处理,把每一个情报员的权值设为它开始收集情报的时间 那么设询问的时间为$t$,就是问路径上有多少个情报员的权值小于等于$t-c-1$ 这个只要用主席树上树就可以解决了,顺便用树 ...
- 洛谷P3569 [POI2014]KAR-Cards(线段树)
传送门 蠢了…… 我们用线段树,记$w0$为该区间最左端取小值时,最右端最小能取大还是小还是无解,$w1$表示最左端取大值时,最右端最小能取大还是小还是无解 然后只要把交换看做修改就好了 这么说可能很 ...
- 我的ubuntu连vi都没有??那在命令行怎么编辑文件??
今天弄了个docker下的ubuntu官方镜像,想在镜像里做一点实验,免得把自己的环境写得乱七八糟. 把代码文件mount进去之后,开始编译,但是镜像太干净了,什么工具都没有,于是先装cmake ap ...
- 【SpringCloud构建微服务系列】使用Spring Cloud Config统一管理服务配置
一.为什么要统一管理微服务配置 对于传统的单体应用而言,常使用配置文件来管理所有配置,比如SpringBoot的application.yml文件,但是在微服务架构中全部手动修改的话很麻烦而且不易维护 ...
- hibernate与struts2整合中出现问题以及一级缓存查询数据在业务层问题
直接上问题: org.hibernate.HibernateException: HHH000142: Javassist Enhancement failed: cn.xxx.pojo.Custom ...
- Java多线程——线程的创建方式
Java多线程——线程的创建方式 摘要:本文主要学习了线程的创建方式,线程的常用属性和方法,以及线程的几个基本状态. 部分内容来自以下博客: https://www.cnblogs.com/dolph ...
- ASP.Net TextBox只读时不能通过后台赋值取值
给页面的TextBox设置ReadOnly="True"时,在后台代码中不能赋值取值,下边几种方法可以避免: 1.不设置ReadOnly,设置onfocus=this.blur() ...