安装第三方插件库

 1、 requests  , 下载地址

  1. https://github.com/requests/requests

安装:

利用 pip 安装

  1. pip3 install requests

  2. easy_install requests (两个方法都没有成功,因为我的cmd 有问题)

我用的比较暴力的方法,就是下载直接解压在python目录下面:

然后开始召唤cmd

运行 setup.py install

2、 BeautifulSoup

  将压缩包解压到Python安装目录下,并顺序执行cmd命令:

  1. setup.py build
  2. setup.py install

3、首先我们引入一个小例子来感受一下

  1. #!/usr/bin/env python3
  2. #coding:utf-
  3.  
  4. import requests
  5.  
  6. request = requests.get('http://www.baidu.com')
  7. print('type(request)', type(request))
  8. print('request.status_code', request.status_code)
  9. print('request.encoding', request.encoding)
  10. print('request.cookies', request.cookies)
  11. print('request.text', request.text)

以上代码我们请求了本站点的网址,然后打印出了返回结果的类型,状态码,编码方式,Cookies等内容。

运行结果如下:

  1. type(request) <class 'requests.models.Response'>
  2. request.status_code
  3. request.encoding ISO--
  4. request.cookies <RequestsCookieJar[<Cookie BDORZ= for .baidu.com/>]>
  5. request.text <!DOCTYPE html>
  6. <!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-><meta http-equiv=X-UA-Compatible content=IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css><title>ç™¾åº¦ä¸€ä¸‹ï¼Œä½ å°±çŸ¥é“</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div class=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </div> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie value=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <input type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off autofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span> </form> </div> </div> <div id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>æ–°é—»</a> <a href=http://www.hao123.com name=tj_trhao123 class=mnav>hao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频</a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login&amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write('<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search === "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');</script> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.baidu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.com/duty/>使用百度前必读</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>
  1.  

基本请求

requests库提供了http所有的基本请求方式。例如:

  1. request = requests.get(url)
  2. request = requests.post(url)
  3. request = requests.put(url)
  4. request = requests.delete(url)
  5. request = requests.head(url)
  6. request = requests.opinions(url)

GET请求

基本GET请求

最基本的GET请求可以直接用get方法

  1. #!/usr/bin/env python3
  2. #coding:utf-
  3.  
  4. import requests
  5.  
  6. params = {
  7. 'key1': 'value1',
  8. 'key2': 'value2'
  9. }
  10. request = requests.get('http://httpbin.org/get', params=params)
  11. print(request.url)

运行结果

  1. http://httpbin.org/get?key1=value1&key2=value2

GET JSON  我们能读取服务器响应的内容。以 GitHub 时间线为例:

  1. #!/usr/bin/env python3
  2. #coding:utf-
  3.  
  4. import requests
  5.  
  6. request = requests.get('https://api.github.com/events')
  7. print('request.text', request.text)
  8. print('request.json()', request.json)

输出

  1. request.text [{"id":"","type":"PushEvent","actor":=...}]
  2. request.json() <bound method Response.json of <Response []>>

Get原始套接字内容

如果想获取来自服务器的原始套接字响应,可以取得 r.raw 。 不过需要在初始请求中设置 stream=True

  1. #!/usr/bin/env python3
  2. #coding:utf-
  3.  
  4. import requests
  5.  
  6. request = requests.get('https://api.github.com/events', stream=True)
  7. print('request.raw', request.raw)
  8. print('request.raw.read(10)', request.raw.read())

这样就获取了网页原始套接字内容

  1. request.raw <requests.packages.urllib3.response.HTTPResponse object at 0x106b5f9b0>
  2. request.raw.read() b'\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'

添加headers

通过传递headers参数来添加headers

  1. #!/usr/bin/env python3
  2. #coding:utf-
  3.  
  4. import requests
  5.  
  6. params = {
  7. 'key1': 'value1',
  8. 'key2': 'value2'
  9. }
  10. headers= {
  11. 'content-type': 'application/json'
  12. }
  13. request = requests.get('http://httpbin.org/get', params=params, headers=headers)
  14. print(request.url)

输出

  1. http://httpbin.org/get?key1=value1&key2=value2

POST请求

  1. 对于 POST 请求来说,我们一般需要为它增加一些参数。那么最基本的传参方法可以利用data 这个参数
  1. #!/usr/bin/env python3
  2. #coding:utf-
  3.  
  4. import requests
  5.  
  6. data = {
  7. 'key1': 'value1',
  8. 'key2': 'value2'
  9. }
  10. request = requests.post('http://httpbin.org/post', data=data)
  11. print('request.text', request.text)

输出结果

  1. request.text {
  2. "args": {},
  3. "data": "",
  4. "files": {},
  5. "form": {
  6. "key1": "value1",
  7. "key2": "value2"
  8. },
  9. "headers": {
  10. "Accept": "*/*",
  11. "Accept-Encoding": "gzip, deflate",
  12. "Content-Length": "",
  13. "Content-Type": "application/x-www-form-urlencoded",
  14. "Host": "httpbin.org",
  15. "User-Agent": "python-requests/2.13.0"
  16. },
  17. "json": null,
  18. "origin": "120.236.174.172",
  19. "url": "http://httpbin.org/post"
  20. }

 POST JSON

有时候我们需要传送的信息不是表单形式的,需要我们传JSON格式的数据过去,所以我们可以用json.dumps()方法把表单数据序列化

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import json
  5. import requests
  6.  
  7. data = {
  8. 'some': 'data'
  9. }
  10. request = requests.post('http://httpbin.org/post', data=json.dumps(data))
  11. print('request.text', request.text)

输出

  1. request.text {
  2. "args": {},
  3. "data": "{\"some\": \"data\"}",
  4. "files": {},
  5. "form": {},
  6. "headers": {
  7. "Accept": "*/*",
  8. "Accept-Encoding": "gzip, deflate",
  9. "Content-Length": "",
  10. "Host": "httpbin.org",
  11. "User-Agent": "python-requests/2.13.0"
  12. },
  13. "json": {
  14. "some": "data"
  15. },
  16. "origin": "120.236.174.172",
  17. "url": "http://httpbin.org/post"
  18. }

在2.4.2版本后,直接使用json参数就可以进行编码

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import json
  5. import requests
  6.  
  7. data = {
  8. 'some': 'data'
  9. }
  10. # request = requests.post('http://httpbin.org/post', data=json.dumps(data))
  11. request = requests.post('http://httpbin.org/post', json=data)
  12. print('request.text', request.text)

上传文件

如果想要上传文件,那么直接用files参数即可

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. files = {
  7. 'file': open('test.txt', 'rb')
  8. }
  9. request = requests.post('http://httpbin.org/post', files=files)
  10. print('request.text', request.text)

输出

  1. request.text {
  2. "args": {},
  3. "data": "",
  4. "files": {
  5. "file": "hello word!\n"
  6. },
  7. "form": {},
  8. "headers": {
  9. "Accept": "*/*",
  10. "Accept-Encoding": "gzip, deflate",
  11. "Content-Length": "",
  12. "Content-Type": "multipart/form-data; boundary=e76e934f387f4013a0cb03f0cc7f636d",
  13. "Host": "httpbin.org",
  14. "User-Agent": "python-requests/2.13.0"
  15. },
  16. "json": null,
  17. "origin": "120.236.174.172",
  18. "url": "http://httpbin.org/post"
  19. }

上传流

requests 是支持流式上传的,这允许你发送大的数据流或文件而无需先把它们读入内存。要使用流式上传,仅需为你的请求体提供一个类文件对象即可

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. with open('test.txt', 'rb') as f:
  7. request = requests.post('http://httpbin.org/post', data=f)
  8. print('request.text', request.text)

输出结果和直接用文件上传一样

Cookies

如果一个响应中包含了cookie,那么我们可以利用 cookies 变量来拿到也可以利用cookies参数来向服务器发送cookies信息

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. request = requests.get('http://httpbin.org/cookies')
  7. print('request.cookies', requests.cookies)
  8. print('request.text', request.text)
  9. cookies = {
  10. 'cookies_are': 'working'
  11. }
  12. request = requests.get('http://httpbin.org/cookies', cookies=cookies)
  13. print('request.cookies', requests.cookies)
  14. print('request.text', request.text)

输出

  1. request.cookies <module 'requests.cookies' from '/usr/local/lib/python3.6/site-packages/requests/cookies.py'>
  2. request.text {
  3. "cookies": {}
  4. }
  5.  
  6. request.cookies <module 'requests.cookies' from '/usr/local/lib/python3.6/site-packages/requests/cookies.py'>
  7. request.text {
  8. "cookies": {
  9. "cookies_are": "working"
  10. }
  11. }

超时配置

可以利用 timeout 变量来配置最大请求时间

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. request = requests.get('http://www.google.com.hk', timeout=0.01)
  7. print(request.url)

如果超时,会抛出一个异常

  1. Traceback (most recent call last):
  2. File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/connection.py", line 141, in _new_conn
  3. (self.host, self.port), self.timeout, **extra_kw)
  4. File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/util/connection.py", line 83, in create_connection
  5. raise err
  6. File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/util/connection.py", line 73, in create_connection
  7. sock.connect(sa)
  8. socket.timeout: timed out

 会话对象

在以上的请求中,每次请求其实都相当于发起了一个新的请求。也就是相当于我们每个请求都用了不同的浏览器单独打开的效果。也就是它并不是指的一个会话,即使请求的是同一个网址。比如

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. requests.get('http://httpbin.org/cookies/set/sessioncookie/123456789')
  7. request = requests.get('http://httpbin.org/cookies')
  8. print(request.text)

输出

  1. {
  2. "cookies": {}
  3. }

很明显,这不在一个会话中,无法获取 cookies,那么在一些站点中,我们需要保持一个持久的会话怎么办呢?就像用一个浏览器逛淘宝一样,在不同的选项卡之间跳转,这样其实就是通过request.Session建立了一个长久会话

解决方案如下

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. # 通过session建立长久会话
  7. session = requests.Session()
  8. session.get('http://httpbin.org/cookies/set/sessioncookie/123456789')
  9. request = session.get('http://httpbin.org/cookies')
  10. print(request.text)

输出

  1. {
  2. "cookies": {
  3. "sessioncookie": ""
  4. }
  5. }

发现可以成功获取到 cookies 了,这就是建立一个会话到作用。体会一下。

那么既然会话是一个全局的变量,那么我们肯定可以用来全局的配置了。

当在会话中设置headers,又在请求中设置headers,两个变量都会传送过去

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. headers1 = {
  7. 'test1': 'true'
  8. }
  9. headers2 = {
  10. 'test2': 'true'
  11. }
  12. session = requests.Session()
  13. session.headers.update(headers1)
  14. request = session.get('http://httpbin.org/headers', headers=headers2)
  15. print(request.text)

输出

  1. {
  2. "headers": {
  3. "Accept": "*/*",
  4. "Accept-Encoding": "gzip, deflate",
  5. "Host": "httpbin.org",
  6. "Test1": "true",
  7. "Test2": "true",
  8. "User-Agent": "python-requests/2.13.0"
  9. }
  10. }

SSL证书验证

现在随处可见 https 开头的网站,Requests可以为HTTPS请求验证SSL证书,就像web浏览器一样。要想检查某个主机的SSL证书,你可以使用 verify参数(默认为True)

现在 12306 证书不是无效的嘛,来测试一下

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. request = requests.get('https://kyfw.12306.cn/otn', verify=True)
  7. print(request.text)

输出

  1. Traceback (most recent call last):
  2. File "/usr/local/lib/python3.6/site-packages/requests/packages/urllib3/contrib/pyopenssl.py", line 436, in wrap_socket
  3. cnx.do_handshake()
  4. File "/usr/local/lib/python3.6/site-packages/OpenSSL/SSL.py", line 1426, in do_handshake
  5. self._raise_ssl_error(self._ssl, result)
  6. File "/usr/local/lib/python3.6/site-packages/OpenSSL/SSL.py", line 1174, in _raise_ssl_error
  7. _raise_current_error()
  8. File "/usr/local/lib/python3.6/site-packages/OpenSSL/_util.py", line 48, in exception_from_error_queue
  9. raise exception_type(errors)
  10. OpenSSL.SSL.Error: [('SSL routines', 'ssl3_get_server_certificate', 'certificate verify failed')]

如果想跳过证书验证,只需要把verify设置为False

来试下 github 的

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. request = requests.get('https://kyfw.12306.cn/otn', verify=True)
  7. print(request.text)

请求正常

代理 

如果需要使用代理,你可以通过为任意请求方法提供 proxies 参数来配置单个请求

  1. #!/usr/bin/env python3
  2. #coding:utf-8
  3.  
  4. import requests
  5.  
  6. proxies = {
  7. "https://www.google.com.hk/": "192.168.199.101"
  8. }
  9. request = requests.get('https://www.google.com.hk/', proxies=proxies)
  10. print(request.text)

以上讲解了 requests 中最常用的参数,如果需要用到更多,请参考官方文档 API

参考:http://blog.csdn.net/seanliu96/article/details/60511165

python 安装插件 requests、BeautifulSoup的更多相关文章

  1. python安装插件包注意事项

    注意!注意!注意!安装以来lib库时强烈建议使用pip安装:原因:nu1:用exe安装会出现各种意想不到让您惊讶的错误!!!nu2:这种错误很难解决且花费无用功!!! 使用pip安装: nu1:使用. ...

  2. python -- 安装+pip+requests

    python3 安装库 sudo python3 -m pip install beautifulsoup4   步骤1:安装pyenv 为了能顺利的将系统的python和下载的python版本呼唤, ...

  3. 【Python】在Pycharm中安装爬虫库requests , BeautifulSoup , lxml 的解决方法

    BeautifulSoup在学习Python过程中可能需要用到一些爬虫库 例如:requests BeautifulSoup和lxml库 前面的两个库,用Pychram都可以通过 File--> ...

  4. Python爬虫学习三------requests+BeautifulSoup爬取简单网页

    第一次第一次用MarkDown来写博客,先试试效果吧! 昨天2018俄罗斯世界杯拉开了大幕,作为一个伪球迷,当然也得为世界杯做出一点贡献啦. 于是今天就编写了一个爬虫程序将腾讯新闻下世界杯专题的相关新 ...

  5. python安装requests (win7 & centos7)

    下载地址: http://pypi.python.org/pypi/requests/只有tart.gz包 解压后,进入目录,安装命令: python setup.py install 会出现:Imp ...

  6. Visual Studio 2012 Ultimate 上安装 Python 开发插件 PTVS

    1.我的环境 操作系统:32位 Win7 旗舰版 Service Pack 1 VS版本:Microsoft Visual Studio Ultimate 2012 版本 11.0.50727.1 R ...

  7. Python 安装 BeautifulSoup(Win7)

    准备材料: 1.Win7,已安装的 Python3.4.1 2.BeautifulSoup4.3.2安装包 安装办法: 1.打开cmd 2,进入BeautifulSoup的解压文件夹 3,执行 pyt ...

  8. python 爬虫(一) requests+BeautifulSoup 爬取简单网页代码示例

    以前搞偷偷摸摸的事,不对,是搞爬虫都是用urllib,不过真的是很麻烦,下面就使用requests + BeautifulSoup 爬爬简单的网页. 详细介绍都在代码中注释了,大家可以参阅. # -* ...

  9. Python 安装requests和MySQLdb

    Python 安装requests和MySQLdb 2017年10月02日 0.系统版本 0.1 查看系统版本 [root@localhost ~]# uname -a Linux localhost ...

随机推荐

  1. P1012 拼数

    P1012 拼数 输入输出样例 输入样例 3 13 312 343 输出样例 34331213 注意 当你输入: 6321 32 407 135 13 217 应该输出: 40732321217135 ...

  2. ubuntu_virtualenv

    sudo pip install virtualenv 1.安装virtualenv(需要先安装pip): $ [sudo] pip install virtualenv 2.创建虚拟环境: $ vi ...

  3. JDK 的配置和反编译工具的使用---------------Java知识点

    初始Java 1995年5月,sun公司开发了一门新的编程语言------Java 詹姆斯.高斯林(Java之父),Java语言小巧安全具有可移植可跨平台性的优点. 开发java程序的步骤:编写 ,编 ...

  4. python opencv 检测特定颜色

    import cv2 import numpy as np cap = cv2.VideoCapture(0) # set blue thresh 设置HSV中蓝色.天蓝色范围 lower_blue ...

  5. MySQL PXC集群部署

    安装 Percona-XtraDB-Cluster 架构: 三个节点: pxc_node_0 30.0.0.196 pxc_node_1 30.0.0.198 pxc_node_2 30.0.0.19 ...

  6. js 解密 16进制转10进制,再取ascii码的对应值

    如:\x64 对应 16进制 0x64 转10进制就是 0x64.toString(10) == 100, 查对应的ascii码表得到 ‘d' <div id=code style='displ ...

  7. Yii笔记:打印sql、Form表单、时间插件、Mysql的 FIND_IN_SET函数使用、是否是post/ajax请求

    语句部分: yii1版本打印最后一条执行的SQL: $this->getDbConnection()->createCommand()->select()->from()-&g ...

  8. php操作共享内存shmop类及简单使用测试(代码)

    SimpleSHM 是一个较小的抽象层,用于使用 PHP 操作共享内存,支持以一种面向对象的方式轻松操作内存段.在编写使用共享内存进行存储的小型应用程序时,这个库可帮助创建非常简洁的代码.可以使用 3 ...

  9. Centos环境自写脚本查看使用php或nginx占用内存

    在CentOs6.4下,用root权限测试. # cd ~ //进入home目录 # vim .bashrc //编辑文件,把下面代码放入地址 mem () { top -n1 -b | head - ...

  10. django 表单常用field

    BooleanField字段:相当于单选框 CharField:接受字符串 参数:max_length最大长度,min_length最小长度 require字段是否是必须的,默认为required=T ...