【摘要】 前一节我们了解了请求的发送过程,但是在网络不好的情况下,如果出现了异常,该怎么办呢?这时如果不处理这些异常,程序很可能因报错而终止运行,所以异常处理还是十分有必要的。

urllib的error模块定义了由request模块产生的异常。如果出现了问题,request模块便会抛出error模块中定义的异常。

1. URLError

URLError类来自urllib库的error模块,它继承自OSError类,是error异常模块的基类,由request模块生的异常都可以通过捕获这个类来处理。

它具有一个属性reason,即返回错误的原因。

下面用一个实例来看一下:

    1. from urllib import request, error
      1. try:
        1. response = request.urlopen('http://cuiqingcai.com/index.htm')
          1. except error.URLError as e:
            1. print(e.reason)
          1.  

          我们打开一个不存在的页面,照理来说应该会报错,但是这时我们捕获了URLError这个异常,运行结果如下:

          1. Not Found

          程序没有直接报错,而是输出了如上内容,这样通过如上操作,我们就可以避免程序异常终止,同时异常得到了有效处理。

          2. HTTPError

          它是URLError的子类,专门用来处理HTTP请求错误,比如认证请求失败等。它有如下3个属性。

          code:返回HTTP状态码,比如404表示网页不存在,500表示服务器内部错误等。

          reason:同父类一样,用于返回错误的原因。

          headers:返回请求头。

          下面我们用几个实例来看看:

            1. from urllib import request,error
              1. try:
                1. response = request.urlopen('http://cuiqingcai.com/index.htm')
                  1. except error.HTTPError as e:
                    1. print(e.reason, e.code, e.headers, sep='\n')
                  1.  

                  运行结果如下:

                    1. Not Found
                      1. 404
                        1. Server: nginx/1.4.6 (Ubuntu)
                          1. Date: Wed, 03 Aug 2016 08:54:22 GMT
                            1. Content-Type: text/html; charset=UTF-8
                              1. Transfer-Encoding: chunked
                                1. Connection: close
                                  1. X-Powered-By: PHP/5.5.9-1ubuntu4.14
                                    1. Vary: Cookie
                                      1. Expires: Wed, 11 Jan 1984 05:00:00 GMT
                                        1. Cache-Control: no-cache, must-revalidate, max-age=0
                                          1. Pragma: no-cache
                                            1. Link: <http://cuiqingcai.com/wp-json/>; rel="https://api.w.org/"
                                          1.  

                                          依然是同样的网址,这里捕获了HTTPError异常,输出了reason、code和headers属性。

                                          因为URLError是HTTPError的父类,所以可以先选择捕获子类的错误,再去捕获父类的错误,所以上述代码更好的写法如下:

                                            1. from urllib import request, error
                                                1. try:
                                                  1. response = request.urlopen('http://cuiqingcai.com/index.htm')
                                                    1. except error.HTTPError as e:
                                                      1. print(e.reason, e.code, e.headers, sep='\n')
                                                        1. except error.URLError as e:
                                                          1. print(e.reason)
                                                            1. else:
                                                              1. print('Request Successfully')
                                                            1.  

                                                            这样就可以做到先捕获HTTPError,获取它的错误状态码、原因、headers等信息。如果不是HTTPError异常,就会捕获URLError异常,输出错误原因。最后,用else来处理正常的逻辑。这是一个较好的异常处理写法。

                                                            有时候,reason属性返回的不一定是字符串,也可能是一个对象。再看下面的实例:

                                                              1. import socket
                                                                1. import urllib.request
                                                                  1. import urllib.error
                                                                      1. try:
                                                                        1. response = urllib.request.urlopen('https://www.baidu.com', timeout=0.01)
                                                                          1. except urllib.error.URLError as e:
                                                                            1. print(type(e.reason))
                                                                              1. if isinstance(e.reason, socket.timeout):
                                                                                1. print('TIME OUT')
                                                                              1.  

                                                                              这里我们直接设置超时时间来强制抛出timeout异常。

                                                                              运行结果如下:

                                                                                1. <class 'socket.timeout'>
                                                                                  1. TIME OUT
                                                                                1.  

                                                                                可以发现,reason属性的结果是socket.timeout类。所以,这里我们可以用isinstance()方法来判断它的类型,作出更详细的异常判断。

                                                                                本节中,我们讲述了error模块的相关用法,通过合理地捕获异常可以做出更准确的异常判断,使程序更加稳健。

                                                                                来源:华为云社区  作者:崔庆才丨静觅

                                                                                本文老猿转自: https://blog.csdn.net/devcloud/article/details/94552903

                                                                                转:【Python3网络爬虫开发实战】3.1.2-处理异常的更多相关文章

                                                                                1. [Python3网络爬虫开发实战] 3.1.2-处理异常

                                                                                  前一节我们了解了请求的发送过程,但是在网络不好的情况下,如果出现了异常,该怎么办呢?这时如果不处理这些异常,程序很可能因报错而终止运行,所以异常处理还是十分有必要的. urllib的error模块定义 ...

                                                                                2. 崔庆才Python3网络爬虫开发实战电子版书籍分享

                                                                                  资料下载地址: 链接:https://pan.baidu.com/s/1WV-_XHZvYIedsC1GJ1hOtw 提取码:4o94 <崔庆才Python3网络爬虫开发实战>高清中文版P ...

                                                                                3. 《Python3 网络爬虫开发实战》开发环境配置过程中踩过的坑

                                                                                  <Python3 网络爬虫开发实战>学习资料:https://www.cnblogs.com/waiwai14/p/11698175.html 如何从墙内下载Android Studio: ...

                                                                                4. 《Python3 网络爬虫开发实战》学习资料

                                                                                  <Python3 网络爬虫开发实战> 学习资料 百度网盘:https://pan.baidu.com/s/1PisddjC9e60TXlCFMgVjrQ

                                                                                5. Python3网络爬虫开发实战PDF高清完整版免费下载|百度云盘

                                                                                  百度云盘:Python3网络爬虫开发实战高清完整版免费下载 提取码:d03u 内容简介 本书介绍了如何利用Python 3开发网络爬虫,书中首先介绍了环境配置和基础知识,然后讨论了urllib.req ...

                                                                                6. 转:【Python3网络爬虫开发实战】 requests基本用法

                                                                                  1. 准备工作 在开始之前,请确保已经正确安装好了requests库.如果没有安装,可以参考1.2.1节安装. 2. 实例引入 urllib库中的urlopen()方法实际上是以GET方式请求网页,而 ...

                                                                                7. 《Python3网络爬虫开发实战》PDF+源代码+《精通Python爬虫框架Scrapy》中英文PDF源代码

                                                                                  下载:https://pan.baidu.com/s/1oejHek3Vmu0ZYvp4w9ZLsw <Python 3网络爬虫开发实战>中文PDF+源代码 下载:https://pan. ...

                                                                                8. 《Python3网络爬虫开发实战》

                                                                                  推荐:★ ★ ★ ★ ★ 第1章 开发环境配置 第2章 网页基础知识 第3章 网络爬虫基础 第4章 基本库的使用 第5章 解析库的使用 第6章 数据存储 第7章 Ajax数据爬取 第8章 动态渲染页面 ...

                                                                                9. [Python3网络爬虫开发实战] 3.1.4-分析Robots协议

                                                                                  利用urllib的robotparser模块,我们可以实现网站Robots协议的分析.本节中,我们来简单了解一下该模块的用法. 1. Robots协议 Robots协议也称作爬虫协议.机器人协议,它的 ...

                                                                                10. [Python3网络爬虫开发实战] 2.3-爬虫的基本原理

                                                                                  我们可以把互联网比作一张大网,而爬虫(即网络爬虫)便是在网上爬行的蜘蛛.把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息.可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛 ...

                                                                                随机推荐

                                                                                1. php 导出excel 10万数据

                                                                                  php导出excel 10万数据(此代码主要测试用) 在工作当中要对一些基本信息和其他信息导出 起初信息比较小无所谓.... 但当信息超出65535的时候 发现点问题了 超出了 而且 反应速度很慢 实 ...

                                                                                2. 配置交换机基于接口划分VLAN(接入层设备作为网关)

                                                                                  组网图形 简介 划分VLAN的方式有:基于接口.基于MAC地址.基于IP子网.基于协议.基于策略(MAC地址.IP地址.接口).其中基于接口划分VLAN,是最简单,最常见的划分方式. 基于接口划分VL ...

                                                                                3. 嗯,挺全乎儿的,Spring Boot 多环境配置都在这里了,你喜欢哪种?

                                                                                  持续原创输出,点击上方蓝字关注我 目录 前言 Spring Boot 自带的多环境配置 创建不同环境的配置文件 指定运行的环境 Maven 的多环境配置 创建多环境配置文件 定义激活的变量 pom 文 ...

                                                                                4. HTML图片点击放大---关闭

                                                                                  <html lang="en"> <head> <meta charset="UTF-8"> </head> & ...

                                                                                5. CSS3:overflow属性详解

                                                                                  1.Overflow overflow为溢出(容器),当内容超出容器时只需添加overflow属性值为hidden, 就可以把超出容器的部分隐藏起来: 如果内容超出容器却又不想其隐藏时可以将其属性值设 ...

                                                                                6. [LeetCode题解]86. 分隔链表 | 三指针 + 虚拟头节点

                                                                                  解题思路 三指针,一个指向前半部分待插入位置,一个指向后半部分待插入位置,最后一个从前往后遍历 代码 /** * Definition for singly-linked list. * public ...

                                                                                7. spring boot配置MySQL8.0 Druid数据源

                                                                                  创建spring boot项目,在pom中添加相应依赖 <!--web--> <dependency> <groupId>org.springframework.b ...

                                                                                8. abp(net core)+easyui+efcore实现仓储管理系统——出库管理之六(五十五)

                                                                                  abp(net core)+easyui+efcore实现仓储管理系统目录 abp(net core)+easyui+efcore实现仓储管理系统--ABP总体介绍(一) abp(net core)+ ...

                                                                                9. [从源码学设计]蚂蚁金服SOFARegistry之程序基本架构

                                                                                  [从源码学设计]蚂蚁金服SOFARegistry之程序基本架构 0x00 摘要 之前我们通过三篇文章初步分析了 MetaServer 的基本架构,MetaServer 这三篇文章为我们接下来的工作做了 ...

                                                                                10. apiAutoTest-更新2020/11/23

                                                                                  原始版本 简书:https://www.jianshu.com/p/6bfaca87a93b 博客园:https://www.cnblogs.com/zy7y/p/13426816.html test ...