零基础写python爬虫之HTTP异常处理


Posted in Python onNovember 05, 2014

先来说一说HTTP的异常处理问题。
当urlopen不能够处理一个response时,产生urlError。
不过通常的Python APIs异常如ValueError,TypeError等也会同时产生。
HTTPError是urlError的子类,通常在特定HTTP URLs中产生。

1.URLError
通常,URLError在没有网络连接(没有路由到特定服务器),或者服务器不存在的情况下产生。
这种情况下,异常同样会带有"reason"属性,它是一个tuple(可以理解为不可变的数组),
包含了一个错误号和一个错误信息。
我们建一个urllib2_test06.py来感受一下异常的处理:

import urllib2  

req = urllib2.Request('http://www.baibai.com')  

try: urllib2.urlopen(req)  

except urllib2.URLError, e:    

    print e.reason 

按下F5,可以看到打印出来的内容是:
[Errno 11001] getaddrinfo failed
也就是说,错误号是11001,内容是getaddrinfo failed

2.HTTPError

服务器上每一个HTTP 应答对象response包含一个数字"状态码"。
有时状态码指出服务器无法完成请求。默认的处理器会为你处理一部分这种应答。
例如:假如response是一个"重定向",需要客户端从别的地址获取文档,urllib2将为你处理。
其他不能处理的,urlopen会产生一个HTTPError。
典型的错误包含"404"(页面无法找到),"403"(请求禁止),和"401"(带验证请求)。
HTTP状态码表示HTTP协议所返回的响应的状态。
比如客户端向服务器发送请求,如果成功地获得请求的资源,则返回的状态码为200,表示响应成功。
如果请求的资源不存在, 则通常返回404错误。

HTTP状态码通常分为5种类型,分别以1~5五个数字开头,由3位整数组成:
------------------------------------------------------------------------------------------------
200:请求成功      处理方式:获得响应的内容,进行处理
201:请求完成,结果是创建了新资源。新创建资源的URI可在响应的实体中得到    处理方式:爬虫中不会遇到
202:请求被接受,但处理尚未完成    处理方式:阻塞等待
204:服务器端已经实现了请求,但是没有返回新的信 息。如果客户是用户代理,则无须为此更新自身的文档视图。    处理方式:丢弃
300:该状态码不被HTTP/1.0的应用程序直接使用, 只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。    处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃
301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源    处理方式:重定向到分配的URL
302:请求到的资源在一个不同的URL处临时保存     处理方式:重定向到临时的URL
304 请求的资源未更新     处理方式:丢弃
400 非法请求     处理方式:丢弃
401 未授权     处理方式:丢弃
403 禁止     处理方式:丢弃
404 没有找到     处理方式:丢弃
5XX 回应代码以“5”开头的状态码表示服务器端发现自己出现错误,不能继续执行请求    处理方式:丢弃
------------------------------------------------------------------------------------------------

HTTPError实例产生后会有一个整型'code'属性,是服务器发送的相关错误号。

Error Codes错误码

因为默认的处理器处理了重定向(300以外号码),并且100-299范围的号码指示成功,所以你只能看到400-599的错误号码。
BaseHTTPServer.BaseHTTPRequestHandler.response是一个很有用的应答号码字典,显示了HTTP协议使用的所有的应答号。
当一个错误号产生后,服务器返回一个HTTP错误号,和一个错误页面。
你可以使用HTTPError实例作为页面返回的应答对象response。
这表示和错误属性一样,它同样包含了read,geturl,和info方法。
我们建一个urllib2_test07.py来感受一下:

import urllib2  

req = urllib2.Request('https://3water.com/callmewhy')  

try:  

    urllib2.urlopen(req)  

except urllib2.URLError, e:  

    print e.code  

    #print e.read() 

按下F5可以看见输出了404的错误码,也就说没有找到这个页面。

3.Wrapping

所以如果你想为HTTPError或URLError做准备,将有两个基本的办法。推荐使用第二种。
我们建一个urllib2_test08.py来示范一下第一种异常处理的方案:

from urllib2 import Request, urlopen, URLError, HTTPError  

req = Request('https://3water.com/callmewhy')  

try:  

    response = urlopen(req)  

except HTTPError, e:  

    print 'The server couldn\'t fulfill the request.'  

    print 'Error code: ', e.code  

except URLError, e:  

    print 'We failed to reach a server.'  

    print 'Reason: ', e.reason  

else:  

    print 'No exception was raised.'  

    # everything is fine 

和其他语言相似,try之后捕获异常并且将其内容打印出来。
这里要注意的一点,except HTTPError 必须在第一个,否则except URLError将同样接受到HTTPError 。
因为HTTPError是URLError的子类,如果URLError在前面它会捕捉到所有的URLError(包括HTTPError )。

我们建一个urllib2_test09.py来示范一下第二种异常处理的方案:

from urllib2 import Request, urlopen, URLError, HTTPError  

req = Request('https://3water.com/callmewhy')  

try:    

    response = urlopen(req)    

except URLError, e:    

    if hasattr(e, 'code'):    

        print 'The server couldn\'t fulfill the request.'    

        print 'Error code: ', e.code    

    elif hasattr(e, 'reason'):    

        print 'We failed to reach a server.'    

        print 'Reason: ', e.reason    

else:    

    print 'No exception was raised.'    

    # everything is fine   
Python 相关文章推荐
python实现dnspod自动更新dns解析的方法
Feb 14 Python
用实例详解Python中的Django框架中prefetch_related()函数对数据库查询的优化
Apr 01 Python
Python使用xlrd模块操作Excel数据导入的方法
May 26 Python
CentOS中使用virtualenv搭建python3环境
Jun 08 Python
Python获取某一天是星期几的方法示例
Jan 17 Python
基于并发服务器几种实现方法(总结)
Dec 29 Python
Python数据可视化库seaborn的使用总结
Jan 15 Python
python将pandas datarame保存为txt文件的实例
Feb 12 Python
python 列表、字典和集合的添加和删除操作
Dec 16 Python
关于ZeroMQ 三种模式python3实现方式
Dec 23 Python
python使用配置文件过程详解
Dec 28 Python
Python内存映射文件读写方式
Apr 24 Python
零基础写python爬虫之使用urllib2组件抓取网页内容
Nov 04 #Python
零基础写python爬虫之爬虫的定义及URL构成
Nov 04 #Python
使用Python编写简单网络爬虫抓取视频下载资源
Nov 04 #Python
Python爬取Coursera课程资源的详细过程
Nov 04 #Python
使用python开发vim插件及心得分享
Nov 04 #Python
Python学习笔记之os模块使用总结
Nov 03 #Python
Python中获取网页状态码的两个方法
Nov 03 #Python
You might like
菜鸟修复电子管记
2021/03/02 无线电
详解PHP文件的自动加载(autoloading)
2018/02/04 PHP
再谈Yii Framework框架中的事件event原理与应用
2020/04/07 PHP
javascript 学习之旅 (3)
2009/02/05 Javascript
javascript 内存回收机制理解
2011/01/17 Javascript
如何将一个String和多个String值进行比较思路分析
2013/04/22 Javascript
浅谈JavaScript中的字符编码转换问题
2015/07/07 Javascript
通过jquery-ui中的sortable来实现拖拽排序的简单实例
2016/05/24 Javascript
【经典源码收藏】基于jQuery的项目常见函数封装集合
2016/06/07 Javascript
JavaScript中绑定事件的三种方式及去除绑定
2016/11/05 Javascript
js保留两位小数方法总结
2018/01/31 Javascript
JavaScript callback回调函数用法实例分析
2018/05/08 Javascript
element-ui循环显示radio控件信息的方法
2018/08/24 Javascript
vue基础之v-bind属性、class和style用法分析
2019/03/11 Javascript
vue+element模态框中新增模态框和删除功能
2019/06/11 Javascript
解决layui轮播图有数据不显示的情况
2019/09/16 Javascript
Vue项目配置跨域访问和代理proxy设置方式
2020/09/08 Javascript
jquery实现拖拽小方块效果
2020/12/10 jQuery
使用python统计文件行数示例分享
2014/02/21 Python
Python的Flask站点中集成xhEditor文本编辑器的教程
2016/06/13 Python
Python读取Json字典写入Excel表格的方法
2018/01/03 Python
Python3.5 Pandas模块之DataFrame用法实例分析
2019/04/23 Python
Python调用百度根据经纬度查询地址的示例代码
2019/07/07 Python
通过PHP与Python代码对比的语法差异详解
2019/07/10 Python
Python 面向对象之封装、继承、多态操作实例分析
2019/11/21 Python
TensorFlow自定义损失函数来预测商品销售量
2020/02/05 Python
python实现批量命名照片
2020/06/18 Python
python识别验证码的思路及解决方案
2020/09/13 Python
css3 flex布局 justify-content:space-between 最后一行左对齐
2020/01/02 HTML / CSS
Pretty Little Thing爱尔兰:时尚女性服饰
2017/03/27 全球购物
德国苹果商店:MacTrade
2020/05/18 全球购物
.NET方向面试题
2014/11/20 面试题
正科级干部考察材料
2014/05/29 职场文书
刑事辩护授权委托书范本
2014/10/17 职场文书
Python带你从浅入深探究Tuple(基础篇)
2021/05/15 Python
在Oracle表中进行关键词搜索的过程
2022/06/10 Oracle