官方文档

以下内容大多来自于官方文档,本文进行了一些修改和总结。要了解更多可以参考

官方文档

安装

利用 pip 安装

  1. $ pip install requests

或者利用 easy_install

  1. $ easy_install requests

通过以上两种方法均可以完成安装。

引入

首先我们引入一个小例子来感受一下

  1. import requests
  2.  
  3. r = requests.get('http://cuiqingcai.com')
  4. print type(r)
  5. print r.status_code
  6. print r.encoding
  7. #print r.text
  8. print r.cookies

以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

运行结果如下

  1. <class 'requests.models.Response'>
  2. 200
  3. UTF-8
  4. <RequestsCookieJar[]>

怎样,是不是很方便。别急,更方便的在后面呢。

基本请求

requests库提供了http所有的基本请求方式。例如

  1. r = requests.post("http://httpbin.org/post")
  2. r = requests.put("http://httpbin.org/put")
  3. r = requests.delete("http://httpbin.org/delete")
  4. r = requests.head("http://httpbin.org/get")
  5. r = requests.options("http://httpbin.org/get")

嗯,一句话搞定。

基本GET请求

最基本的GET请求可以直接用get方法

  1. r = requests.get("http://httpbin.org/get")

如果想要加参数,可以利用 params 参数

  1. import requests
  2.  
  3. payload = {'key1': 'value1', 'key2': 'value2'}
  4. r = requests.get("http://httpbin.org/get", params=payload)
  5. print r.url

运行结果

  1. http://httpbin.org/get?key2=value2&key1=value1

如果想请求JSON文件,可以利用 json() 方法解析

例如自己写一个JSON文件命名为a.json,内容如下

  1. ["foo", "bar", {
  2. "foo": "bar"
  3. }]

利用如下程序请求并解析

  1. import requests
  2.  
  3. r = requests.get("a.json")
  4. print r.text
  5. print r.json()

运行结果如下,其中一个是直接输出内容,另外一个方法是利用 json() 方法解析,感受下它们的不同

  1. ["foo", "bar", {
  2. "foo": "bar"
  3. }]
  4. [u'foo', u'bar', {u'foo': u'bar'}]

如果想获取来自服务器的原始套接字响应,可以取得 r.raw 。 不过需要在初始请求中设置 stream=True 。

  1. r = requests.get('https://github.com/timeline.json', stream=True)
  2. r.raw
  3. <requests.packages.urllib3.response.HTTPResponse object at 0x101194810>
  4. r.raw.read(10)
  5. '\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'

这样就获取了网页原始套接字内容。

如果想添加 headers,可以传 headers 参数

  1. import requests
  2.  
  3. payload = {'key1': 'value1', 'key2': 'value2'}
  4. headers = {'content-type': 'application/json'}
  5. r = requests.get("http://httpbin.org/get", params=payload, headers=headers)
  6. print r.url

通过headers参数可以增加请求头中的headers信息

基本POST请求

对于 POST 请求来说,我们一般需要为它增加一些参数。那么最基本的传参方法可以利用 data 这个参数。

  1. import requests
  2.  
  3. payload = {'key1': 'value1', 'key2': 'value2'}
  4. r = requests.post("http://httpbin.org/post", data=payload)
  5. print r.text

运行结果

  1. {
  2. "args": {},
  3. "data": "",
  4. "files": {},
  5. "form": {
  6. "key1": "value1",
  7. "key2": "value2"
  8. },
  9. "headers": {
  10. "Accept": "*/*",
  11. "Accept-Encoding": "gzip, deflate",
  12. "Content-Length": "",
  13. "Content-Type": "application/x-www-form-urlencoded",
  14. "Host": "httpbin.org",
  15. "User-Agent": "python-requests/2.9.1"
  16. },
  17. "json": null,
  18. "url": "http://httpbin.org/post"
  19. }

可以看到参数传成功了,然后服务器返回了我们传的数据。

有时候我们需要传送的信息不是表单形式的,需要我们传JSON格式的数据过去,所以我们可以用 json.dumps() 方法把表单数据序列化。

  1. import json
  2. import requests
  3.  
  4. url = 'http://httpbin.org/post'
  5. payload = {'some': 'data'}
  6. r = requests.post(url, data=json.dumps(payload))
  7. print r.text

运行结果

  1. {
  2. "args": {},
  3. "data": "{\"some\": \"data\"}",
  4. "files": {},
  5. "form": {},
  6. "headers": {
  7. "Accept": "*/*",
  8. "Accept-Encoding": "gzip, deflate",
  9. "Content-Length": "",
  10. "Host": "httpbin.org",
  11. "User-Agent": "python-requests/2.9.1"
  12. },
  13. "json": {
  14. "some": "data"
  15. },
  16. "url": "http://httpbin.org/post"
  17. }

通过上述方法,我们可以POST JSON格式的数据

如果想要上传文件,那么直接用 file 参数即可

新建一个 a.txt 的文件,内容写上 Hello World!

  1. import requests
  2.  
  3. url = 'http://httpbin.org/post'
  4. files = {'file': open('test.txt', 'rb')}
  5. r = requests.post(url, files=files)
  6. print r.text

可以看到运行结果如下

  1. {
  2. "args": {},
  3. "data": "",
  4. "files": {
  5. "file": "Hello World!"
  6. },
  7. "form": {},
  8. "headers": {
  9. "Accept": "*/*",
  10. "Accept-Encoding": "gzip, deflate",
  11. "Content-Length": "",
  12. "Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000",
  13. "Host": "httpbin.org",
  14. "User-Agent": "python-requests/2.9.1"
  15. },
  16. "json": null,
  17. "url": "http://httpbin.org/post"
  18. }

这样我们便成功完成了一个文件的上传。

requests 是支持流式上传的,这允许你发送大的数据流或文件而无需先把它们读入内存。要使用流式上传,仅需为你的请求体提供一个类文件对象即可

  1. with open('massive-body') as f:
  2. requests.post('http://some.url/streamed', data=f)

这是一个非常实用方便的功能。

Cookies

如果一个响应中包含了cookie,那么我们可以利用 cookies 变量来拿到

  1. import requests
  2.  
  3. url = 'http://example.com'
  4. r = requests.get(url)
  5. print r.cookies
  6. print r.cookies['example_cookie_name']

以上程序仅是样例,可以用 cookies 变量来得到站点的 cookies

另外可以利用 cookies 变量来向服务器发送 cookies 信息

  1. import requests
  2.  
  3. url = 'http://httpbin.org/cookies'
  4. cookies = dict(cookies_are='working')
  5. r = requests.get(url, cookies=cookies)
  6. print r.text

运行结果

  1. '{"cookies": {"cookies_are": "working"}}'

可以已经成功向服务器发送了 cookies

超时配置

可以利用 timeout 变量来配置最大请求时间

  1. requests.get('http://github.com', timeout=0.001)

注:timeout 仅对连接过程有效,与响应体的下载无关。

也就是说,这个时间只限制请求的时间。即使返回的 response 包含很大内容,下载需要一定时间,然而这并没有什么卵用。

会话对象

在以上的请求中,每次请求其实都相当于发起了一个新的请求。也就是相当于我们每个请求都用了不同的浏览器单独打开的效果。也就是它并不是指的一个会话,即使请求的是同一个网址。比如

  1. import requests
  2.  
  3. requests.get('http://httpbin.org/cookies/set/sessioncookie/123456789')
  4. r = requests.get("http://httpbin.org/cookies")
  5. print(r.text)

结果是

  1. {
  2. "cookies": {}
  3. }

很明显,这不在一个会话中,无法获取 cookies,那么在一些站点中,我们需要保持一个持久的会话怎么办呢?就像用一个浏览器逛淘宝一样,在不同的选项卡之间跳转,这样其实就是建立了一个长久会话。

解决方案如下

  1. import requests
  2.  
  3. s = requests.Session()
  4. s.get('http://httpbin.org/cookies/set/sessioncookie/123456789')
  5. r = s.get("http://httpbin.org/cookies")
  6. print(r.text)

在这里我们请求了两次,一次是设置 cookies,一次是获得 cookies

运行结果

  1. {
  2. "cookies": {
  3. "sessioncookie": ""
  4. }
  5. }

发现可以成功获取到 cookies 了,这就是建立一个会话到作用。体会一下。

那么既然会话是一个全局的变量,那么我们肯定可以用来全局的配置了。

  1. import requests
  2.  
  3. s = requests.Session()
  4. s.headers.update({'x-test': 'true'})
  5. r = s.get('http://httpbin.org/headers', headers={'x-test2': 'true'})
  6. print r.text

通过 s.headers.update 方法设置了 headers 的变量。然后我们又在请求中设置了一个 headers,那么会出现什么结果?

很简单,两个变量都传送过去了。

运行结果

  1. {
  2. "headers": {
  3. "Accept": "*/*",
  4. "Accept-Encoding": "gzip, deflate",
  5. "Host": "httpbin.org",
  6. "User-Agent": "python-requests/2.9.1",
  7. "X-Test": "true",
  8. "X-Test2": "true"
  9. }
  10. }

如果get方法传的headers 同样也是 x-test 呢?

  1. r = s.get('http://httpbin.org/headers', headers={'x-test': 'true'})

嗯,它会覆盖掉全局的配置

  1. {
  2. "headers": {
  3. "Accept": "*/*",
  4. "Accept-Encoding": "gzip, deflate",
  5. "Host": "httpbin.org",
  6. "User-Agent": "python-requests/2.9.1",
  7. "X-Test": "true"
  8. }
  9. }

那如果不想要全局配置中的一个变量了呢?很简单,设置为 None 即可

  1. r = s.get('http://httpbin.org/headers', headers={'x-test': None})

运行结果

  1. {
  2. "headers": {
  3. "Accept": "*/*",
  4. "Accept-Encoding": "gzip, deflate",
  5. "Host": "httpbin.org",
  6. "User-Agent": "python-requests/2.9.1"
  7. }
  8. }

嗯,以上就是 session 会话的基本用法

SSL证书验证

现在随处可见 https 开头的网站,Requests可以为HTTPS请求验证SSL证书,就像web浏览器一样。要想检查某个主机的SSL证书,你可以使用 verify 参数

现在 12306 证书不是无效的嘛,来测试一下

  1. import requests
  2.  
  3. r = requests.get('https://kyfw.12306.cn/otn/', verify=True)
  4. print r.text

结果

  1. requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)

果真如此

来试下 github 的

  1. import requests
  2.  
  3. r = requests.get('https://github.com', verify=True)
  4. print r.text

嗯,正常请求,内容我就不输出了。

如果我们想跳过刚才 12306 的证书验证,把 verify 设置为 False 即可

  1. import requests
  2.  
  3. r = requests.get('https://kyfw.12306.cn/otn/', verify=False)
  4. print r.text

发现就可以正常请求了。在默认情况下 verify 是 True,所以如果需要的话,需要手动设置下这个变量。

代理

如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求

  1. import requests
  2.  
  3. proxies = {
  4. "https": "http://41.118.132.69:4433"
  5. }
  6. r = requests.post("http://httpbin.org/post", proxies=proxies)
  7. print r.text

也可以通过环境变量 HTTP_PROXY 和 HTTPS_PROXY 来配置代理

  1. export HTTP_PROXY="http://10.10.1.10:3128"
  2. export HTTPS_PROXY="http://10.10.1.10:1080"

通过以上方式,可以方便地设置代理。

API

以上讲解了 requests 中最常用的参数,如果需要用到更多,请参考官方文档 API

API

转载自:静觅 » Python爬虫利器一之Requests库的用法

(转)Python爬虫利器一之Requests库的用法的更多相关文章

  1. Python爬虫利器一之Requests库的用法

    前言 之前我们用了 urllib 库,这个作为入门的工具还是不错的,对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助.入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取.那么这一节来 ...

  2. 9.Python爬虫利器一之Requests库的用法(一)

    requests 官方文档: http://cn.python-requests.org/zh_CN/latest/user/quickstart.html request 是一个第三方的HTTP库 ...

  3. python爬虫(6)--Requests库的用法

    1.安装 利用pip来安装reques库,进入pip的下载位置,打开cmd,默认地址为 C:\Python27\Scripts 可以看到文件中有pip.exe,直接在上面输入cmd回车,进入命令行界面 ...

  4. Python爬虫利器二之Beautiful Soup的用法

    上一节我们介绍了正则表达式,它的内容其实还是蛮多的,如果一个正则匹配稍有差池,那可能程序就处在永久的循环之中,而且有的小伙伴们也对写正则表达式的写法用得不熟练,没关系,我们还有一个更强大的工具,叫Be ...

  5. python爬虫入门三:requests库

    urllib库在很多时候都比较繁琐,比如处理Cookies.因此,我们选择学习另一个更为简单易用的HTTP库:Requests. requests官方文档 1. 什么是Requests Request ...

  6. python爬虫(八) requests库之 get请求

    requests库比urllib库更加方便,包含了很多功能. 1.在使用之前需要先安装pip,在pycharm中打开: 写入pip install requests命令,即可下载 在github中有关 ...

  7. Python爬虫学习笔记-2.Requests库

    Requests是Python的一个优雅而简单的HTTP库,它比Pyhton内置的urllib库,更加强大. 0X01 基本使用 安装 Requests,只要在你的终端中运行这个简单命令即可: pip ...

  8. python爬虫(九) requests库之post请求

    1.方法: response=requests.post("https://www.baidu.com/s",data=data) 2.拉勾网职位信息获取 因为拉勾网设置了反爬虫机 ...

  9. python爬虫学习,使用requests库来实现模拟登录4399小游戏网站。

    1.首先分析请求,打开4399网站. 右键检查元素或者F12打开开发者工具.然后找到network选项, 这里最好勾选perserve log 选项,用来保存请求日志.这时我们来先用我们的账号密码登陆 ...

随机推荐

  1. 个人作业-2 必应词典安卓APP分析

    产品: 必应词典 安卓版 第一部分:调研,评测 1.对于这款app的第一印象就是界面不是很美观,页面排版十分混乱,有些功能比较鸡肋,功能也不是很丰富,不过这款app的ui设计相对简洁,让人容易上手,对 ...

  2. 必应app测试

    一.app评测 1.个人使用体验 第一次使用必应app看到是微软这么一个大公司做的英语词典,应该会很有名但是我居然没有听说过.当我打开这个软件使用的时候看到界面的视频感觉还不错.但是总感觉这样的app ...

  3. 如何让eclipse在程序修改后,点击运行可以自动保存。

    preferences>run/debug>launching里面save required dirty editors before launching选always就自动保存咯选pro ...

  4. 201521123037 《Java程序设计》第8周学习总结

    1. 本周学习总结 1.1 以你喜欢的方式(思维导图或其他)归纳总结集合与泛型相关内容. 1.2 选做:收集你认为有用的代码片段 1. String[] list1=str.split(" ...

  5. 201521123028 《Java程序设计》第3周学习总结

    1. 本周学习总结 2. 书面作业 Q1.代码阅读 public class Test1 { private int i = 1;//这行不能修改 private static int j = 2; ...

  6. 201521123092,《java程序设计》第1周学习总结

    1.本周学习总结 这一周是我学习java的第一周,刚接触一门全新的编程语言,觉得还是有点困难的,很多基础性的java知识需要一点点学习,我会请教同学以及查询网上的学习资料,认真学好这一门学科. 本周学 ...

  7. sublime主题安装

    网上发现与之前最相近的两款皮肤分别是Theme – Soda与Flatland.这里就记录一下安装与使用方法. 方法一:手动下载安装: 1.下载安装SublimeText2,这个我就不说了.网上的版本 ...

  8. 201521123054 《Java程序设计》 第十周学习总结

    1. 本周学习总结 2. 书面作业 题目4-2 1.1 截图你的提交结果(出现学号) 1.2 4-2中finally中捕获异常需要注意什么? 无论是否抛出异常,也无论从什么地方返回,finally语句 ...

  9. 201521123121 《Java程序设计》第14周学习总结

    1. 本周学习总结 1.1 以你喜欢的方式(思维导图或其他)归纳总结多数据库相关内容. 数据库的基本特点 1.实现数据共享 数据共享包含所有用户可同时存取数据库中的数据,也包括用户可以用各种方式通过接 ...

  10. session和cookie介绍以及session简单应用

    介绍http协议与TCP协议:        http协议:是短连接,关闭浏览器的时候断开与服务器的连接         TCP协议:是长连接,连接一直存在         http协议是在TCP协议 ...