爬虫之request库主要解析---参照慕课北理工嵩天
kv = {'key1':'value1','key2':'value2'}
r = requests.request (' GET' , 'http://python123.io/ws' , params =kv)
print(r.url)
'''
requests.request(methid,url,**kwargs)
**kwargs:控制访问参数,均为可选项
params:字典或字节序列,作为参数增加到url中
'''
body = '主体内容'
r = requests.request('post','http://python123.io/ws' ,data=body) '''
**keargs:控制访问的参数,,均为可选项
data:字典、字节序列或文件对象,作为Request的内容
''' kv = {'key1':'valuel'}
r = requests.request('post','http://python123.io/ws',json=kv ) ''' **keargs:控制访问的参数,均为可选项
json:json格式的数据,作为request的内容
''' hd = {'user-agent':'Chrome/10'}
r = requests.request('post','http://python123.io/ws',headers=hd ) '''
**kwargs:控制访问参数,均为可选项
headers:字典,http定制头
作用:模拟任何想模拟的浏览器向服务器发起访问
'''
'''
其他**keargs
**kwargs:控制访问的参数,均为可选选项
cookies:字典或CookieJar,Request中的cookie
auth:元组,支持HTTP认证功能
'''
#**kwargs:控制访问参数,均为可选项
# files:字典类型,传输文件
#作用:向某一个链接 ,提交某一个文件,在特定条件下非常有用
fs = {'file':open('data.xls','rb')}
r = requests.request('POST','http://python123.io/ws',files = fs)
#**kwargs:控制访问参数,均为可选项
# timeout:设定超时时间,秒为单位
# 作用:再发起request请求时在设定时间内没有返回请求,将产生timeout的异常
r = requests.request('GET','http://www.baidu.com',timeout = 10)
#**kwargs:控制访问参数,均为可选项
#proxies:字典类型,设定访问代理服务器,可以增加登录认证
#作用:用代理服务器可以有效地隐藏用户,爬取网的原的ip地址信息,有效防止爬虫的逆追踪
pxs = {'http':'http:user:pass@10.10.10.1:1234'
'http':'https:10.10.10.1:4321' }
r = requests.request('GET' , 'http://www.baidu.com',proxies=pxs)
'''
#**kwargs:控制访问参数,均为可选项
alloe_redirects:True/Fales,默认为True,重定向开关
stream:True/Fales, 默认为True,获取内容立即下载开关
verify:True/False,默认为True,认证SSL证书开关
cert:本地SSL证书路径
'''
'''
类比requests的方法
requests.get(url,params = None,**kwargs)
url:你获取页面的url链接
params:url中的额外参数,字典或字节流格式,可选
**kwargs:12个控制访问的参数
requests.head(url,**kwatgs)
url:拟获取页面的url链接
**kwargs:13个控制访问的参数
requests.post(url,data=None,json=None,**kwatgs)
url:拟更新页面的url链接
data:字典,字节序列或文件,Request的内容
json:JSON格式的数据,Request的内容
**kwargs:11个控制访问的参数
requests.put(url,data=None,**kwargs)
url:拟更新页面的url链接
data:字典,字节序列或文件,Request的内容
**kwargs:12个控制访问的参数
requests.patch(url,data=None,**kwargs)
url:拟更新页面的url链接
data:字典,字节序列或文件,Request的内容
**kwargs:12个控制访问的参数
requsets.delete(url,**kwargs)
url:拟删除页面的url链接
**kwatgs:13个控制访问的参数
'''
爬虫之request库主要解析---参照慕课北理工嵩天的更多相关文章
- 【学习笔记】PYTHON网络爬虫与信息提取(北理工 嵩天)
学习目的:掌握定向网络数据爬取和网页解析的基本能力the Website is the API- 1 python ide 文本ide:IDLE,Sublime Text集成ide:Pychar ...
- 转 #HTTP协议学习# (一)request 和response 解析
http://www.cnblogs.com/bukudekong/p/3834020.html #HTTP协议学习# (一)request 和response 解析 注:本文转自:http:// ...
- 小白学 Python 爬虫(21):解析库 Beautiful Soup(上)
小白学 Python 爬虫(21):解析库 Beautiful Soup(上) 人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前 ...
- 小白学 Python 爬虫(22):解析库 Beautiful Soup(下)
人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...
- 小白学 Python 爬虫(23):解析库 pyquery 入门
人生苦短,我用 Python 前文传送门: 小白学 Python 爬虫(1):开篇 小白学 Python 爬虫(2):前置准备(一)基本类库的安装 小白学 Python 爬虫(3):前置准备(二)Li ...
- 爬虫代码实现五:解析所有分页url并优化解析实现类
如图,我们进入优酷首页,可以看到电视剧列表,我们称这个页面为电视剧列表页,而点击进入某个电视剧,则称为电视剧详情页.那么如何获取所有分页以及对应的详情页呢,通过下面的分页得到. 因此,首先,我们将St ...
- Scrapy爬虫入门Request和Response(请求和响应)
开发环境:Python 3.6.0 版本 (当前最新)Scrapy 1.3.2 版本 (当前最新) 请求和响应 Scrapy的Request和Response对象用于爬网网站. 通常,Request对 ...
- python爬虫之request and BeautifulSoup
1.爬虫的本质是什么? 模仿浏览器的行为,爬取网页信息. 2.requests 1.get请求 无参数实例 import requests ret = requests.get('https://gi ...
- 爬虫之request相关请求
一.解析json格式数据 (1) # (1)解析json 对象数据 # import requests # 返回的数据进行解析 # response = requests.get('http://ht ...
随机推荐
- Golang 实现设计模式 —— 装饰模式
概念 "用于代替继承的技术,无需通过继承增加子类就能扩展对象的新功能" "动态地给一个对象添加一些额外的职责,就增加功能来说,装饰模式比生成子类更为灵活" 何时 ...
- sublime text2解决中文乱码,支持中文的设置方法
步骤: 1.安装Sublime Package Control. 在Sublime Text 2上用Ctrl+-打开控制台并在里面输入以下代码,Sublime Text 2就会自动安装P ...
- POJ 3616Milking Time
Bessie is such a hard-working cow. In fact, she is so focused on maximizing her productivity that sh ...
- TCP方式的传输
TCP 客户端 先创建socket对象建立tcp客户端,明确服务端的地址和端口,必须与服务端对应,要不然对方收不到消息,就像快递填错了送货地址. Socket s = new Socket(" ...
- ToShowDoc拯救不想写文档的你
ToShowDoc拯救不想写文档的你 写注释已经够折磨开发者了,显然天天curd的我们再去写文档岂不是分分种要被逼疯. 我想每个人都有这种经历 加了一个参数文档忘了更新 参数名更改文档忘了更新 删掉一 ...
- C# 动态(不定)类型和不定参数数量,使用param写入CSV文档的最简单方法,提供excel(或记事本)阅读支持格式
在开发一个项目,使用C#写入CSV文件时,虽并未遇到太多阻碍,但是很多小伙伴估计和我有过同样的想法.简单的写入CSV,固定参数数量就好了很简单写完.但是如果遇到你得到的数据参数数量和参数类型未知或者动 ...
- redis安装及启动
Redis 的安装及启动停止 下载 https://redis.io/download 软件copy至虚拟机中,常用的路径为/root/software 开始安装 安装gcc 目的是为了编译软件 yu ...
- 易错、经典问题:return不可返回指向栈内存的指针
预备知识:内存的分类 C/C++程序占用的内存分为两大类:静态存储区与动态存储区.其示意图如下所示: 数据保存在静态存储区与动态存储区的区别就是:静态存储区在编译-链接阶段已经确定了,程序运行过程中不 ...
- node.js当中的http模块与url模块的简单介绍
一.http模块的简单介绍 node.js当中的http内置模块可以用于创建http服务器与http客户端. 1.引包 const http = require('http'); 2.创建http服务 ...
- Did You AK Today? (今天你AK了吗?)
考虑到本文读者年龄原因,本文改为使用简体中文撰写. 题目描述 今有正整数 n,kn,kn,k,求 1−n1-n1−n 共 nnn 个数的全排列,按字典序的第 kkk 个. 数据满足 1≤n≤105,1 ...