解析链接

1. urlparse() & urlunparse()

urlparse() 是对url链接识别和分段的,API用法如下:

  1. urllib.parse.urlparse(urlstring, scheme='', allow_fragments=True)

他的三个参数:

  • urlstring: 这是一个必须项,即待解析的url。
  • scheme: 它是默认协议。假如这个链接没有带协议信息,会将这个作为默认协议。
  1. from urllib.parse import urlparse
  2. result = urlparse('www.baidu.com/index.html;user?id=5#comment', scheme='https')
  3. print(result)

结果为:

  1. ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5', fragment='comment')
  • allow_fragments: 即是否忽略fragment。如果他被设置为Falsefragment部分就会被忽略,他会解析为pathparameters或者query的一部分,而fragment部分为空
  1. from urllib.parse import urlparse
  2. result = urlparse('http://www.baidu.com/index.html;user?id=5#comment', allow_fragments=False)
  3. print(result)

结果如下:

  1. ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5#comment', fragment='')

假设URL中不包含paramsquery,如下:

  1. from urllib.parse import urlparse
  2. result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=False)
  3. print(result)

运行结果如下:

  1. ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html#comment', params='', query='', fragment='')

可以发现,当URL中不包含paramsquery时,fragment便会被解析为path的一部分。返回结果ParseResult实际上是一个元组,我们可以用索引顺去来获取,也可以用属性名获取。如下:

  1. from urllib.parse import urlparse
  2. result = urlparse('http://www.baidu.com/index.html#comment', allow_fragments=False)
  3. print(result.scheme, result[0], result.netloc, result[1], sep='\n')

结果如下:

  1. http
  2. http
  3. www.baidu.com
  4. www.baidu.com

可以发现二者结果一致

urlunparse()是其对立方法,他可接收一个可迭代对象。但是长度必须是6,否则会抛出参数数量不足或者过多的问题。如下:

  1. from urllib.parse import urlunparse
  2. data = ['http', 'www.baidu.com', 'index.html', 'user', 'a=6', 'comment']
  3. print(urlunparse(data))

结果如下:

  1. http://www.baidu.com/index.html;user?a=6#comment

2. urlsplite() & urlunsplite()

unsplite()urlparse()方法相似。但是不能单独解析params这一部分,只返回5个结果。

  1. from urllib.parse import urlsplit
  2. result = urlsplit('http://www.baidu.com/index.html;user?id=5#comment')
  3. print(result)

结果:

  1. SplitResult(scheme='http', netloc='www.baidu.com', path='/index.html;user', query='id=5', fragment='comment')

返回结果SplitResult是一个元组类型,既可以用属性获取值,也可以用索引来获取。如下:

  1. from urllib.parse import urlsplit
  2. result = urlsplit('http://www.baidu.com/index.html;user?id=5#comment')
  3. print(result.scheme, result[0])

结果:

  1. http http

urlunsplit()urlunparse()方法类似,他也是将链接各个部分组合成完整链接的方法。传入的参数也是一个可迭代对象。长度必须为5,如下:

  1. from urllib.parse import urlunsplit
  2. data = ['http', 'www.baidu.com', 'index.html', 'a=6', 'comment']
  3. print(urlunsplit(data))

结果:

  1. http://www.baidu.com/index.html?a=6#comment

3. urljoin()

生成链接的另外一个方法,可以提供一个base_url作为第一个参数,将新的链接作为第二个参数,该方法会分析base_urlschemenetlocpath 这3个内容并对链接缺失部分进行补充。如下:

  1. from urllib.parse import urljoin
  2. print(urljoin('http://www.baidu.com', 'FAQ.html'))
  3. print(urljoin('http://www.baidu.com', 'https://cuiqingcai.com/FAQ.html'))
  4. print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html'))
  5. print(urljoin('http://www.baidu.com/about.html', 'https://cuiqingcai.com/FAQ.html?question=2'))
  6. print(urljoin('http://www.baidu.com?wd=abc', 'https://cuiqingcai.com/index.php'))
  7. print(urljoin('http://www.baidu.com', '?category=2#comment'))
  8. print(urljoin('www.baidu.com', '?category=2#comment'))
  9. print(urljoin('www.baidu.com#comment', '?category=2'))

结果如下:

  1. http://www.baidu.com/FAQ.html
  2. https://cuiqingcai.com/FAQ.html
  3. https://cuiqingcai.com/FAQ.html
  4. https://cuiqingcai.com/FAQ.html?question=2
  5. https://cuiqingcai.com/index.php
  6. http://www.baidu.com?category=2#comment
  7. www.baidu.com?category=2#comment
  8. www.baidu.com?category=2

base_url提供了三项内容schemenetlocpath。 如果这3项在新的链接里不存在就会补充。如果新的链接存在,就使用新的链接的部分。而base_url中的paramsqueryfragment是不起作用的。

4. urlencode()

urlencode()方法在构造GET请求参数的时候非常有用,如下:

  1. from urllib.parse import urlencode
  2. params = {
  3. 'name': 'germey',
  4. 'age': 22
  5. }
  6. base_url = 'http://www.baidu.com?'
  7. url = base_url + urlencode(params)
  8. print(url)

首先声明一个字典来作为参数表示,然后调用urlencode()方法将其序列化为GET请求参数。

  1. http://www.baidu.com?name=germey&age=22

5. parse_qs()

这是一个反序列化方法,我们可以利用parse_qs()方法,就可以转回字典,如下:

  1. from urllib.parse import parse_qs
  2. query = 'name=germey&age=22'
  3. print(parse_qs(query))

结果

  1. {'name': ['germey'], 'age': ['22']}

6. parse_qsl()

将参数转化成元组列表

  1. from urllib.parse import parse_qsl
  2. query = 'name=germey&age=22'
  3. print(parse_qsl(query))

结果:

  1. [('name', 'germey'), ('age', '22')]

7. quote() & unquote()

quote()是将中文转换成URL编码,unquote()是对URL进行解码。

  1. from urllib.parse import quote
  2. keyword = '壁纸'
  3. url = 'https://www.baidu.com/s?wd=' + quote(keyword)
  4. print(url)
  1. https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8
  1. from urllib.parse import unquote
  2. url = 'https://www.baidu.com/s?wd=%E5%A3%81%E7%BA%B8'
  3. print(unquote(url))
  1. https://www.baidu.com/s?wd=壁纸

想要获取更多Python学习资料可以加我QQ:2955637827

python爬虫之解析链接的更多相关文章

  1. python爬虫数据解析之BeautifulSoup

    BeautifulSoup是一个可以从HTML或者XML文件中提取数据的python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式. BeautfulSoup是python爬虫三 ...

  2. python爬虫网页解析之parsel模块

    08.06自我总结 python爬虫网页解析之parsel模块 一.parsel模块安装 官网链接https://pypi.org/project/parsel/1.0.2/ pip install ...

  3. python爬虫网页解析之lxml模块

    08.06自我总结 python爬虫网页解析之lxml模块 一.模块的安装 windows系统下的安装: 方法一:pip3 install lxml 方法二:下载对应系统版本的wheel文件:http ...

  4. python爬虫数据解析之正则表达式

    爬虫的一般分为四步,第二个步骤就是对爬取的数据进行解析. python爬虫一般使用三种解析方式,一正则表达式,二xpath,三BeautifulSoup. 这篇博客主要记录下正则表达式的使用. 正则表 ...

  5. python爬虫之解析库正则表达式

    上次说到了requests库的获取,然而这只是开始,你获取了网页的源代码,但是这并不是我们的目的,我们的目的是解析链接里面的信息,比如各种属性  @href  @class span  抑或是p节点里 ...

  6. python爬虫--数据解析

    数据解析 什么是数据解析及作用 概念:就是将一组数据中的局部数据进行提取 作用:来实现聚焦爬虫 数据解析的通用原理 标签定位 取文本或者属性 正则解析 正则回顾 单字符: . : 除换行以外所有字符 ...

  7. python爬虫之解析库Beautiful Soup

    为何要用Beautiful Soup Beautiful Soup是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式, 是一个 ...

  8. Python爬虫【解析库之beautifulsoup】

    解析库的安装 pip3 install beautifulsoup4 初始化 BeautifulSoup(str,"解析库") from bs4 import BeautifulS ...

  9. python爬虫在解析不带引号的json报错的问题解决方案

    本例中环境: python3.6.6 demjson-2.2.4 如不看废话请直接看3(下面红体字) 1.近期在爬取代理验证代理的时候发生一个Bug, 就是在验证代理的时候返回的是如下字符串, {ip ...

随机推荐

  1. leetcode 1046

    class Solution {       public int lastStoneWeight(int[] stones) {        MaxHeap s=new MaxHeap(stone ...

  2. @Transactional自调用问题

  3. T-SQL——基础语法

    目录 0. 定义变量 1. 批处理 2. 条件逻辑--IF 3. 逻辑分支--CASE 4. 循环语句--WHILE 5. 附录--关于CASE表达式的实现函数 6. 参考 shanzm-2020年1 ...

  4. 洛谷P3906 Hoof Paper, Scissor (记忆化搜索)

    这道题问的是石头剪刀布的的出题问题 首先不难看出这是个dp题 其次这道题的状态也很好确定,之前输赢与之后无关,确定三个状态:当前位置,当前手势,当前剩余次数,所以对于剪刀,要么出石头+1分用一次机会, ...

  5. 老猿Python博客文章目录索引

    本目录提供老猿Python所有相关博文的一级目录汇总,带星号的为收费专栏: 一.专栏列表 本部分为老猿所有专栏的列表,每个专栏都有该专栏置顶的博文目录: 专栏:Python基础教程目录 专栏:* 使用 ...

  6. 第15.6节 PyQt5安装与配置

    一. 引言 关于PyQt5的安装网上有很多的文章,老猿也是学习了好多,最后结合其他模块安装的知识发现其实安装很简单,就是直接使用pip或pip3安装就可以了,这样既无需预先下载好软件,也无需担心版本的 ...

  7. 【Docker】 .Net Core 3.1 webapi 集成EF Code First,使用MySql进行业务操作 、配置swagger (三)

    系列目录: [Docker] CentOS7 安装 Docker 及其使用方法 ( 一 ) [Docker] 使用Docker 在阿里云 Centos7 部署 MySQL 和 Redis (二) [D ...

  8. scrapy爬虫爬取小姐姐图片(不羞涩)

    这个爬虫主要学习scrapy的item Pipeline 是时候搬出这张图了: 当我们要使用item Pipeline的时候,要现在settings里面取消这几行的注释 我们可以自定义Item Pip ...

  9. Scrum 冲刺第二天

    一.每日站立式会议 1.会议内容 1)进行每日工作汇报 张博愉: 昨天已完成的工作:制定测试计划.博客编写 今日工作计划:测试mappe里的接口 工作中遇到的困难:对测试接触得较少 张润柏: 昨天已完 ...

  10. 转载:c# 获取CPU温度(非WMI,直接读取硬件)

    c#获取cpu温度 很早一个项目做远控,所以需要用到获取cpu温度,但是就是不知从何下手,无意中发现了Open Hardware Monitor,令我的项目成功完成 亲测20台清装xp sp2的机器, ...