1、读取cookies

  1. import http.cookiejar as cj,urllib.request as request
  2. cookie = cj.CookieJar()
  3. handler = request.HTTPCookieProcessor(cookie)
  4. opener = request.build_opener(handler)
  5. response = opener.open('http://www.bigdata17.com')
  6. for item in cookie:
  7. print(item.name + "=" + item.value)

2、将cookies保存在文件中

  1. filename = 'baidu_cookies.txt'
  2. cookies = cj.MozillaCookieJar(filename)
  3. handler = request.HTTPCookieProcessor(cookies)
  4. opener = request.build_opener(handler)
  5. response = opener.open('http://www.baidu.com')
  6. cookies.save(ignore_discard=True,ignore_expires=True)

3、处理异常

URLError和HTTPError类,两个类是父子关系,HTTPError会返回错误代码,两个类都可以处理request模块产生的异常,这两个都有一个reason属性,用于记录出现异常的原因

URLError处理异常:

  1. from urllib import request,error
  2. try:
  3. response = request.urlopen('http://www.bigdata17.com/index.htm')
  4. except error.URLError as e:
  5. print(e.reason)

HTTPError处理异常:

这个类是专门处理http请求的异常,http请求会返回一个请求代码,因此HTTPError会有一个code属性。另外HTTP请求会有包含请求头信息,所以HTTPError还包含一个headers属性。HTTPError继承自URLError类,因此也包含有reason属性。

代码:

  1. try:
  2. response = request.urlopen('http://www.bigdata17.com/index.htm')
  3. except error.HTTPError as e:
  4. print(e.reason)
  5. print(e.code)
  6. print(e.headers)

4、解析链接

urllib库中的parse类提供了很多用于解析链接的方法。

urlparse()方法是专门用于解析链接的,我们先看这个方法的返回值:

  1. from urllib.parse import urlparse
  2. result = urlparse('http://www.bigdata17.com')
  3. print(result)

上面的代码返回的结果:

  1. ParseResult(scheme='http', netloc='www.bigdata17.com', path='', params='', query='', fragment='')

可见urlparse()方法返回的是ParseResult类,这个了有6个属性,分别是scheme、netloc、path、params、query和fragment。其中scheme代表的是协议,有http,https,ftp等协议类型。netloc是网站域名,path是要访问的网页名称。params是代表参数。query查询参数,fragment是锚点。

urlparse()方法是如何将一个链接映射到上面的6个参数中呢?

继续看下一段代码:

  1. from urllib.parse import urlparse
  2. result = urlparse('http://www.bigdata17.com/22.html;user=bigdata17?id=10#content')
  3. print(result)

运行的结果如下:

  1. ParseResult(scheme='http', netloc='www.bigdata17.com', path='/22.html', params='user=bigdata17', query='id=10', fragment='content')

可见从链接开始为://止,是scheme。从://开始到一个/位置,是netloc域名。从/开始到;分号为止是path,访问页面的路径。;开始到?为止是params参数。从?问号开始到#井号结束时query查询参数。最后是fragment锚点参数。

5、urlopen()方法

该方法返回的是HTTPResponse对象:

  1. import urllib.request as request
  2. response = request.urlopen('http://www.bigdata17.com')
  3. print(response)
  4. <http.client.HTTPResponse object at 0x000002A9655BBF28>

HTTPResponse对象有read(),getheaders()等方法。

通过read()方法可以读取网页的信息:

  1. import urllib.request as request
  2. response = request.urlopen('http://www.bigdata17.com')
  3. print(response.read().decode('utf-8'))

使用该方法时要注意网站使用的编码格式,配合decode()方法一起使用,否则会出现乱码。像百度用的是utf-8,网易用的是gbk。

getHeaders()方法返回的是网页的头信息:

  1. import urllib.request as request
  2. response = request.urlopen('http://www.bigdata17.com')
  3. print(response.getheaders())
  4. 结果:
  5. [('Server', 'nginx/1.12.2'), ('Date', 'Mon, 12 Nov 2018 15:45:22 GMT'), ('Content-Type', 'text/html'), ('Content-Length', '38274'), ('Last-Modified', 'Thu, 08 Nov 2018 00:35:52 GMT'), ('Connection', 'close'), ('ETag', '"5be384e8-9582"'), ('Accept-Ranges', 'bytes')]

继续看urlopen()方法有哪些参数:

  1. urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=False, context=None)

其中url是必须传递的参数,其他的参数不是必须传递的。data用于将数据传输到我们要爬取的网站上,例如用户名、密码、验证码等。timeout是设置请求超时时间。

data参数的用法:

  1. >>> import urllib.parse as parse
  2. >>> import urllib.request as request
  3. >>> data = bytes(parse.urlencode({'username': 'bigdata17'}), encoding='utf8')
  4. >>> print(data)
  5. b'username=bigdata17'
  6. >>> response = request.urlopen('http://httpbin.org/post', data=data)
  7. >>> print(response.read())
  8. b'{\n "args": {}, \n "data": "", \n "files": {}, \n "form": {\n "username
  9. ": "bigdata17"\n }, \n "headers": {\n "Accept-Encoding": "identity", \n
  10. "Connection": "close", \n "Content-Length": "18", \n "Content-Type": "appl
  11. ication/x-www-form-urlencoded", \n "Host": "httpbin.org", \n "User-Agent":
  12. "Python-urllib/3.7"\n }, \n "json": null, \n "origin": "183.134.52.58", \n
  13. "url": "http://httpbin.org/post"\n}\n'

使用data传输数据时,必须将urlencode方法将data的数据转换为bytes类型。

在使用urlopen方法时,如果不使用data参数,则使用的get方式传送数据,如果使用了data参数,则是以post的方式传送数据。post的方式必须保证要爬取的网站上有相应的方法(上面代码要爬取的网址是http://httpbin.org/post,post就是要处理我们通过data参数传输数据的方法),否则会报urllib.error.HTTPError: HTTP Error 404: NOT FOUND的错误。

timeout参数的用法:

该参数是用于设置请求超时时间,免得出现网络故障或服务器异常时我们的爬虫程序长时间等:

  1. import urllib.request as request
  2. response = request.urlopen('http://www.bigdata17.com', timeout=1)
  3. print(response.read())

如果将timeout设置为0.01,则会报如下的错误:

  1. socket.timeout: timed out
  2. During handling of the above exception, another exception

设置请求头信息:

请求的头信息一般对带有浏览器的信息,很多网站根据请求头信息来判断该请求是正常的浏览器发起的还是由爬虫发起的。设置爬虫头信息方法:

  1. from urllib import request, parse
  2. url = 'http://httpbin.org/post'
  3. headers = {
  4. 'User-Agent': 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)',
  5. 'Host': 'httpbin.org'
  6. }
  7. dict = {
  8. 'name': 'bigdata17'
  9. }
  10. data = bytes(parse.urlencode(dict), encoding='utf8')
  11. req = request.Request(url=url, data=data, headers=headers, method='POST')
  12. response = request.urlopen(req)
  13. print(response.read().decode('utf-8'))

设置代理:

如果一个ip过于频繁的访问某一个网站时,根据反爬虫措施,会限制该IP的访问。我们可以通过urllib提供的ProxyHandler方法来设置代理:

  1. import urllib.request
  2. proxy_handler = urllib.request.ProxyHandler({'http': 'http://www.bigdata17.com:3128/'})
  3. proxy_auth_handler = urllib.request.ProxyBasicAuthHandler()
  4. proxy_auth_handler.add_password('realm', 'host', 'username', 'password')
  5. opener = urllib.request.build_opener(proxy_handler, proxy_auth_handler)
  6. # This time, rather than install the OpenerDirector, we use it directly:
  7. opener.open('https://accounts.douban.com/login?alias=&redir=https%3A%2F%2Fwww.douban.com%2F&source=index_nav&error=1001')

一起学爬虫——urllib库常用方法用法总结的更多相关文章

  1. Python爬虫Urllib库的高级用法

    Python爬虫Urllib库的高级用法 设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Head ...

  2. python爬虫---selenium库的用法

    python爬虫---selenium库的用法 selenium是一个自动化测试工具,支持Firefox,Chrome等众多浏览器 在爬虫中的应用主要是用来解决JS渲染的问题. 1.使用前需要安装这个 ...

  3. Python爬虫Urllib库的基本使用

    Python爬虫Urllib库的基本使用 深入理解urllib.urllib2及requests  请访问: http://www.mamicode.com/info-detail-1224080.h ...

  4. python爬虫---urllib库的基本用法

    urllib是python自带的请求库,各种功能相比较之下也是比较完备的,urllib库包含了一下四个模块: urllib.request   请求模块 urllib.error   异常处理模块 u ...

  5. python爬虫 - Urllib库及cookie的使用

    http://blog.csdn.net/pipisorry/article/details/47905781 lz提示一点,python3中urllib包括了py2中的urllib+urllib2. ...

  6. python爬虫 urllib库基本使用

    以下内容均为python3.6.*代码 学习爬虫,首先有学会使用urllib库,这个库可以方便的使我们解析网页的内容,本篇讲一下它的基本用法 解析网页 #导入urllib from urllib im ...

  7. 对于python爬虫urllib库的一些理解(抽空更新)

    urllib库是Python中一个最基本的网络请求库.可以模拟浏览器的行为,向指定的服务器发送一个请求,并可以保存服务器返回的数据. urlopen函数: 在Python3的urllib库中,所有和网 ...

  8. Python爬虫--Urllib库

    Urllib库 Urllib是python内置的HTTP请求库,包括以下模块:urllib.request (请求模块).urllib.error( 异常处理模块).urllib.parse (url ...

  9. Python爬虫 Urllib库的高级用法

    1.设置Headers 有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性. 首先,打开我们的浏览 ...

随机推荐

  1. Django之ContentType组件

    一.理想表结构设计 1.初始构建 1. 场景刚过去的双12,很多电商平台都会对他们的商品进行打折促销活动的,那么我们如果要实现这样的一个场景,改如何设计我们的表? 2. 初始表设计 注释很重要,看看吧 ...

  2. 总线复习之SPI

    SPI总线协议以ds1302为例讲解 1.1概述. 1.2根据时序图来分析. 1.3再熟读一下DS1302的数据手册和SPI总线协议的使用. 1.4结合ds1302功能实现一定的功能. 1.1概述SP ...

  3. [BZOJ 2285] [SDOI 2011] 保密

    Description 传送门 Solution 这道题的最大难点在于读懂题意(雾 分数规划求出 \(n\) 到 \(1\cdots n_1\) 每个点的最小 \(\sum\frac{t_i}{s_i ...

  4. BZOJ2527[Poi2011]Meteors——整体二分+树状数组

    题目描述 Byteotian Interstellar Union (BIU) has recently discovered a new planet in a nearby galaxy. The ...

  5. dl,dt,dd标签的使用

    dl就是定义一个列表 dt说明白了就是这个列表的标题dd就是内容,能缩进和UL,OL性质差不多 <dl> <dt>标题标题</dt> <dd>内容内容& ...

  6. vm Linux centos 链接外网

    修改network配置 vi /etc/sysconfig/network-scripts/ifcfg-ens33 修改ONBOOT=yes 重启服务 service network restart ...

  7. MQ服务器奔溃解决过程

    1.MQ服务器崩溃调节: 今天具安卓前端反应, 从昨天下午开始线上服务器使用 电话号码登陆和 使用电话号码注册功能不能使用, 经过前端仔细排查怀疑是后端问题,之后经过与ios前端 确认, 定位为后端服 ...

  8. Tomcat 日志文件分割

    新到公司, 拿到了前辈们留下的 程序 “病历书” , 上面记载了项目上的一些 经常会犯的毛病,  还有相应的解决方法. 其中有的是因为后台 代码逻辑上的一些原因 , N手代码通病了吧 (这个还是以后再 ...

  9. host-only局域网络

    在网桥配置的情况下设置: 网桥配置链接 配置前: 配置后: vi /etc/sysconfig/network-scripts/ifcfg-eth0 这里是使用static静态配置,具体网络配置及声明 ...

  10. Python实现聚类算法AP

    1.算法简介 AP(Affinity Propagation)通常被翻译为近邻传播算法或者亲和力传播算法,是在2007年的Science杂志上提出的一种新的聚类算法.AP算法的基本思想是将全部数据点都 ...