python urllib.request
一、简介
urllib.request 模块提供了访问 URL 的相关功能
二、常用函数
urllib.request.urlopen("http://httpbin.org", timeout=1)
// 访问网页,并设置1秒的超时时间(urlopen 只能实现最基本的请求)
读:
.read()// 读取网页(二进制).decode('utf-8')// 以 utf-8 解码网页.geturl()// 获取访问的 URL
信息:
.info()// 获取网响应页的 Headers 信息.headers// 获取网页响应的 Headers 信息.getheaders()// 获取网页响应的 Headers 信息(以列表形式返回).getheader(name="Content-Type")// 获取网页响应的 Headers 信息(查看指定的属性).version// 查看 HTTP 使用的版本协议号
状态码:
.getcode()// 获取当前访问的状态码.status// 获取当前访问的状态码.reason// 获取当前访问的状态码(如访问成功则返回 OK)
urllib.request.Request(url=url, data=data, headers=header, method="POST")
.add_header// 添加新的 Header(接受元组类型)
| 参数 | 作用 |
|---|---|
| url | 需请求的 url |
| data | 必须为 bytes(字节流)类型,如为字典,可用 urllib.parse.urlencode() |
| headers | 请求头 |
| origin_req_host | 指定请求方的 host 名称或 ip 地址 |
| unverifiable | 设置网页是否需要验证(默认为 Flase) |
| method | 指定请求方法(如:GET、POST等) |
三、实例
1、读取网页,并以 utf-8 格式解码
# 读取网页,并以 utf-8 格式解码
urllib.request.urlopen("http://httpbin.org").read().decode('utf-8')
2、获取访问的 URL
# 获取访问的 URL
urllib.request.urlopen("http://httpbin.org").geturl()
3、获取 Headers 信息
# 获取 Headers 信息
urllib.request.urlopen("http://httpbin.org").info()
4、获取访问的状态码
# 获取访问的状态码
urllib.request.urlopen("http://httpbin.org").getcode()
5、指定 Headers 访问网页
import urllib.request
# 指定访问的 URL
url = "http://httpbin.org/get"
# 指定访问的 Headers
header = {
"Host": "httpbin.org",
"Referer": "http://httpbin.org/",
"User-Agent": "Mozilla/5.0 (Windows NT 99.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36",
}
# 使用指定的 Headers 访问网页
test = urllib.request.Request(url=url, headers=header)
# 以 utf-8 的格式打印出访问的页面
test_2 = urllib.request.urlopen(test).read().decode("utf-8")
print (test_2)
6、发送带参数的 GET 请求
import urllib.request
import urllib.parse
# 指定访问的 URL
url = "http://httpbin.org/get"
# 指定访问的 Headers
header = {
"Host": "httpbin.org",
"Referer": "http://httpbin.org/",
"User-Agent": "Mozilla/5.0 (Windows NT 99.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36",
}
# 设置需传递的参数(使用 urlencode 将字典转换成可提交的参数,如:a=test_1&b=test_2)
data = urllib.parse.urlencode({'a':'test_1', 'b':'test_2'})
url = url + "?" + data
# 使用指定的 Headers 访问网页
test = urllib.request.Request(url=url, headers=header)
# 以 utf-8 的格式打印出访问的页面
test_2 = urllib.request.urlopen(test).read().decode("utf-8")
print (test_2)
7、发送带参数的 POST 请求
import urllib.request
import urllib.parse
# 指定访问的 URL
url = "http://httpbin.org/post"
# 指定访问的 Headers
header = {
"Host": "httpbin.org",
"Origin": "http://httpbin.org",
"Referer": "http://httpbin.org/",
"User-Agent": "Mozilla/5.0 (Windows NT 99.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36",
}
# 设置需传递的参数(使用 urlencode 将字典转换成可提交的参数,如:a=test_1&b=test_2)
data = urllib.parse.urlencode({'a':'test_1', 'b':'test_2'})
# 将序列化后的字符串转换成二进制数据(POST 请求携带的参数是二进制)
data = bytes(data, encoding='utf-8')
# 使用指定的 Headers 访问网页
test = urllib.request.Request(url=url, headers=header, data = data, method="POST")
# 指定新的 Headers(接受元组类型(会替换掉对应的项))
test.add_header("User-Agent", "Mozilla/99.0 (Windows NT 99.0; Win99; x99) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/85.0.4183.83 Safari/537.36",
)
# 以 utf-8 的格式打印出访问的页面
test_2 = urllib.request.urlopen(test).read().decode("utf-8")
print (test_2)
8、设置全局代理
import urllib.request
# 需访问测试页面
url = "http://httpbin.org/ip"
# 设置代理 IP
ip = {"http":"127.0.0.1:8888"}
proxy_ip = urllib.request.ProxyHandler(ip)
# 使用 build_opener() 构建一个 opener 对象
opener = urllib.request.build_opener(proxy_ip)
# 设置新的 Headers
header = ('User-Agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.97 Safari/537.36')
opener.addheaders = [header]
urllib.request.install_opener(opener)
# 访问测试的页面
response = urllib.request.urlopen(url)
# 以 utf-8 的格式打印出访问的页面
html = response.read().decode('utf-8')
print (html)
python urllib.request的更多相关文章
- 第14.6节 使用Python urllib.request模拟浏览器访问网页的实现代码
Python要访问一个网页并读取网页内容非常简单,在利用<第14.5节 利用浏览器获取的http信息构造Python网页访问的http请求头>的方法构建了请求http报文的请求头情况下,使 ...
- Python urllib Request 用法
转载自:https://blog.csdn.net/ywy0ywy/article/details/52733839 python2.7 httplib, urllib, urllib2, reque ...
- 第14.9节 Python中使用urllib.request+BeautifulSoup获取url访问的基本信息
利用urllib.request读取url文档的内容并使用BeautifulSoup解析后,可以通过一些基本的BeautifulSoup对象输出html文档的基本信息.以博文<第14.6节 使用 ...
- Python Spider - urllib.request
import urllib.request import urllib.parse import json proxy_support = urllib.request.ProxyHandler({' ...
- Python 基于urllib.request封装http协议类
基于urllib.request封装http协议类 by:授客QQ:1033553122 测试环境: Python版本:Python 3.3 代码实践 #!/usr/bin/env python ...
- Python 3.X 要使用urllib.request 来抓取网络资源。转
Python 3.X 要使用urllib.request 来抓取网络资源. 最简单的方式: #coding=utf-8 import urllib.request response = urllib. ...
- Python做简单爬虫(urllib.request怎么抓取https以及伪装浏览器访问的方法)
一:抓取简单的页面: 用Python来做爬虫抓取网站这个功能很强大,今天试着抓取了一下百度的首页,很成功,来看一下步骤吧 首先需要准备工具: 1.python:自己比较喜欢用新的东西,所以用的是Pyt ...
- python之urllib.request.urlopen(url)报错urllib.error.HTTPError: HTTP Error 403: Forbidden处理及引申浏览器User Agent处理
最近在跟着院内大神学习python的过程中,发现使用urllib.request.urlopen(url)请求服务器是报错: 在园子里找原因,发现原因为: 只会收到一个单纯的对于该页面访问的请求,但是 ...
- 通过python的urllib.request库来爬取一只猫
我们实验的网站很简单,就是一个关于猫的图片的网站:http://placekitten.com 代码如下: import urllib.request respond = urllib.request ...
随机推荐
- C#LeetCode刷题之#599-两个列表的最小索引总和(Minimum Index Sum of Two Lists)
问题 该文章的最新版本已迁移至个人博客[比特飞],单击链接 https://www.byteflying.com/archives/3802 访问. 假设Andy和Doris想在晚餐时选择一家餐厅,并 ...
- myBatis源码解析-反射篇(4)
前沿 前文分析了mybatis的日志包,缓存包,数据源包.源码实在有点难顶,在分析反射包时,花费了较多时间.废话不多说,开始源码之路. 反射包feflection在mybatis路径如下: 源码解析 ...
- [持续更新]——关于C++的一些可能会常用的函数
写在前面 这些函数都是我和朋友一点一点写出来的,可能部分代码会有点雷同,但大部分代码都是自我总结出来的.目前包含的函数功能分别是: 1.设置控制台颜色 2.设置控制台光标位置 3.隐藏控制台光标 4. ...
- 悄咪咪提高团队幸福感 & Surprise!
前言 本文的灵感是在几个月以前工作不忙(摸鱼)时想到的,老是自己一个人往前冲冲冲也没啥意思,需要想一点办法,来提高团队的效率,提高团队的幸福感(效率起来了,单位时间内代码写的更多,那不就幸福啦 ),经 ...
- django自带orm妙用
django对数据库数据进行处理方式通常有以下几种方式: 1.使用原生sql对数据库进行处理:pymysql,cx_oracle 2.使用外置orm模块来对数据库进行处理:sqlalchemy 3.使 ...
- linux下的scp传输文件
转载于:http://moyu2010.blog.163.com/blog/static/177439041201112710243064/,再次谢谢作者. 1.功能说明scp就是security c ...
- Micro LED巨量转移技术研究进展
近年来,Micro LED因其功耗低.响应快.寿命长.光效率高等特点,被视为继LCD.OLED之后的新一代显示面板技术.Micro LED的英文全名是Micro Light Emitting Diod ...
- mysql join update
SELECT CONCAT('UPDATE free_for_demo_orders SET product_id=',product_id,',order_created_time=','&quo ...
- keepalived的vrrp多播报文被禁,导致VIP同时位于多个机器上
keepalived的vrrp多播报文被禁,导致VIP同时位于多个机器上 查看man keepalived.conf,VRRP instances中给出了单播的设置方法,添加unicast_peer即 ...
- 操作系统-存储管理(3)高速缓存Cache
存储器的组织形式: 数据总是在相邻两层之间复制传送,最小传送单位是定长块,互为副本(不删除) ️指令和数据有时间局部性和空间局部性. 高速缓冲存储器Cache 介于CPU和主存储器间的高速小容量存 ...