python3 爬虫4--解析链接
1.urlparse()
属于urllib.parse
在urlparse世界里面,一个标准的URL链接格式如下
scheme://nrtlooc/path;paramters?query#fragment
所以,一个url='http://www.baidu.com/index.html;user?id=5#comment'
我们使用urlparse的话,就可以被分成6个部分
(scheme='http',netloc='www.baidu.com',path='index.html'paramters='user'.query='id=5',fragment='comment')
具体操作如下:
res=urlparse('https://www.baidu.com/baidu?wd=query&tn=monline_dg&ie=utf-8'
)
print(res)
urlparse还有带参数的是使用方法
res=urlparse(urlstring,scheme=' ',allow_fragment=True)
scheme是默认的协议,如果urlstring没有带协议,则使用scheme中的协议,若是有,则仍然使用urlstring中协议
allow_fragment即是否忽略fragment,如果是False,fragment就被解析为path、paramenters或者query中的一部分
2,urlunparse()
属于urllib.parse
正如其名字所示,ulrunparse()是urlparse()的逆过程
例如:data=['http','www.baidu.com','index.html','user','a=6','comment']
print(urlunparse(data))
这样就完成了urlstring的构造
3urlsplit()
from urllib.parse import urlsplit
与urlparse类似,但urlsplict把urlstirng分割成5个部分,其中少了paramters
res=urlsplict('http://www.baidu.com/index.html;user?id=5#comment
')
print(res)
4urlunsplit()
用法与urlunparse()类似
5urljoin()
属于urllib.parse
urljoin()也是一种生成urlstring的方式,这种生成方法是提供两个链接,分别是base_url,和新链接,分析base_url中的scheme,netloc,path这三个部分,然后对新链接缺失的部分进行补充,新链接里面若是有,则不补充,不提换,最后返回新链接,举个例子
print(urljoin('http://www.baidu.com',‘wd=query&tn=monline_dg&ie=utf-8‘))
返回结果是:
http://www.baidu.com/wd=query&tn=monline_dg&ie=utf-8
6urlencode()
from urllib,parse import urlencode
可以将字典类型转换为url参数举例来说
param={'name':'lihua','age':'23'}
base_url='http://www.baidu.com'
url=base_url+urlencode(param)
print(url)
7parse_qs()
parse_qs()是parse_encode()的逆过程(为什么名字的区别这么大,我也是不得其解)
from urllib.parse import parse_qs
query='wd=query&tn=monline_dg&ie=utf-8'
print(parse_qs(query))
输出结果是:{'tn': ['monline_dg'], 'wd': ['query'], 'ie': ['utf-8']}
这样就转换称为字典类型了
8pars_qsl()
from urllib.pase import parse_qsl:将参数转换成为元组组成的列表
query='wd=query&tn=monline_dg&ie=utf-8'
print(parse_qsl(query))
输出结果:[('wd', 'query'), ('tn', 'monline_dg'), ('ie', 'utf-8')]
9quote
quote()方法可以将内容转换为URL编码格式,有时候URL带中文可能导致乱码,这样就需要quote
from urllib。parse import quote
keyword='美女'
url='https://www.baidu.com/s?wd='+quote(keyword)
print(url)
输出结果:https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3
10unquote()
对URL进行解码
from urllib.parse import unquote
url='https://www.baidu.com/s?wd=%E7%BE%8E%E5%A5%B3'
print(unquote(url))
输出结果:https://www.baidu.com/s?wd=美女
就可以实现解码
python3 爬虫4--解析链接的更多相关文章
- python爬虫之解析链接
解析链接 1. urlparse() & urlunparse() urlparse() 是对url链接识别和分段的,API用法如下: urllib.parse.urlparse(urlstr ...
- python3爬虫中文乱码之请求头‘Accept-Encoding’:br 的问题
当用python3做爬虫的时候,一些网站为了防爬虫会设置一些检查机制,这时我们就需要添加请求头,伪装成浏览器正常访问. header的内容在浏览器的开发者工具中便可看到,将这些信息添加到我们的爬虫代码 ...
- python3爬虫系列19之反爬随机 User-Agent 和 ip代理池的使用
站长资讯平台:python3爬虫系列19之随机User-Agent 和ip代理池的使用我们前面几篇讲了爬虫增速多进程,进程池的用法之类的,爬虫速度加快呢,也会带来一些坏事. 1. 前言比如随着我们爬虫 ...
- python3爬虫(4)各种网站视频下载方法
python3爬虫(4)各种网站视频下载方法原创H-KING 最后发布于2019-01-09 11:06:23 阅读数 13608 收藏展开理论上来讲只要是网上(浏览器)能看到图片,音频,视频,都能够 ...
- 笔趣看小说Python3爬虫抓取
笔趣看小说Python3爬虫抓取 获取HTML信息 解析HTML信息 整合代码 获取HTML信息 # -*- coding:UTF-8 -*- import requests if __name__ ...
- 爬虫Larbin解析(一)——Larbin配置与使用
介绍 功能:网络爬虫 开发语言:c++ 开发者:Sébastien Ailleret(法国) 特点:只抓取网页,高效(一个简单的larbin的爬虫可以每天获取500万的网页) 安装 安装平台:Ubun ...
- python爬虫数据解析之BeautifulSoup
BeautifulSoup是一个可以从HTML或者XML文件中提取数据的python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式. BeautfulSoup是python爬虫三 ...
- Python3爬虫系列:理论+实验+爬取妹子图实战
Github: https://github.com/wangy8961/python3-concurrency-pics-02 ,欢迎star 爬虫系列: (1) 理论 Python3爬虫系列01 ...
- Python3爬虫(十八) Scrapy框架(二)
对Scrapy框架(一)的补充 Infi-chu: http://www.cnblogs.com/Infi-chu/ Scrapy优点: 提供了内置的 HTTP 缓存 ,以加速本地开发 . ...
随机推荐
- Realtime Data Processing at Facebook
概要 这篇论文发表于2016年,主要是介绍Facebook内部的流式计算平台的设计与思考,对于流式计算的关键特性的实现选型上进行深度对比分析. 流式计算系统5个衡量指标 文中提到有5个重要的考量部分 ...
- SpringBoot外部配置属性注入
一.命令行参数配置 Spring Boot可以是基于jar包运行的,打成jar包的程序可以直接通过下面命令运行: java -jar xx.jar 那么就可以通过命令行改变相关配置参数.例如默认tom ...
- 添加删除系统右键菜单(就是上下文菜单,也就是Context Menu)中的一些选项
随着电脑安装的东西越来越多,右侧菜单也原来越长,很不方面.所以打算清理一下 我删除的大约以下几个,友好一点的都可以配置.当然也可以通过注册表直接删除. 特:注册表备份,即导入导出,避免一失足成千古恨. ...
- Spring Security即将弃用WebSecurityConfigurerAdapter配置类
用过WebSecurityConfigurerAdapter的都知道对Spring Security十分重要,总管Spring Security的配置体系.但是马上这个类要废了,你没有看错,这个类将在 ...
- windows server2012 r2 .net framework 3.5失败
拿到手的虚拟机系统是Windows server 2012R2,本想着安装SQlserver2012轻轻松松,结果途中警告未安装.NET Framework 3.5.于是找了个.NET Framewo ...
- [旧][Android] ButterKnife 浅析
备注 原发表于2016.05.08,资料已过时,仅作备份,谨慎参考 前言 自上星期写 Retrofit 写吐之后 ... 我问大队长能不能换个其他什么东西写,大队长就说了个单词 ButterKnife ...
- ElasticSearch学习笔记(详细)
目录 ElasticSearch概述 ElasticSearch入门 安装 基本操作 查看es相关信息 索引操作 文档操作 bulk批量API 进阶检索 Search API Query DSL 分词 ...
- shell脚本练习案例
转至:https://www.cnblogs.com/tui463/archive/2004/01/13/12663024.html shell脚本练习案例 案例一:通过位置变量创建系统账户及密码 分 ...
- spark submit local遇到路径hdfs的问题
有时候第一次执行 spark submit --master local[*] 单机模式的时候,可以对linux本地路径进行输出.但是有时候提交到yarn的时候,是自动加上hdfs的路径这没问题, 但 ...
- JZ-043-左旋转字符串
左旋转字符串 题目描述 汇编语言中有一种移位指令叫做循环左移(ROL),现在有个简单的任务,就是用字符串模拟这个指令的运算结果.对于一个给定的字符序列S, 请你把其循环左移K位后的序列输出.例如,字符 ...