零基础写python爬虫之HTTP异常处理


Posted in Python onNovember 05, 2014

先来说一说HTTP的异常处理问题。
当urlopen不能够处理一个response时,产生urlError。
不过通常的Python APIs异常如ValueError,TypeError等也会同时产生。
HTTPError是urlError的子类,通常在特定HTTP URLs中产生。

1.URLError
通常,URLError在没有网络连接(没有路由到特定服务器),或者服务器不存在的情况下产生。
这种情况下,异常同样会带有"reason"属性,它是一个tuple(可以理解为不可变的数组),
包含了一个错误号和一个错误信息。
我们建一个urllib2_test06.py来感受一下异常的处理:

import urllib2  

req = urllib2.Request('http://www.baibai.com')  

try: urllib2.urlopen(req)  

except urllib2.URLError, e:    

    print e.reason 

按下F5,可以看到打印出来的内容是:
[Errno 11001] getaddrinfo failed
也就是说,错误号是11001,内容是getaddrinfo failed

2.HTTPError

服务器上每一个HTTP 应答对象response包含一个数字"状态码"。
有时状态码指出服务器无法完成请求。默认的处理器会为你处理一部分这种应答。
例如:假如response是一个"重定向",需要客户端从别的地址获取文档,urllib2将为你处理。
其他不能处理的,urlopen会产生一个HTTPError。
典型的错误包含"404"(页面无法找到),"403"(请求禁止),和"401"(带验证请求)。
HTTP状态码表示HTTP协议所返回的响应的状态。
比如客户端向服务器发送请求,如果成功地获得请求的资源,则返回的状态码为200,表示响应成功。
如果请求的资源不存在, 则通常返回404错误。

HTTP状态码通常分为5种类型,分别以1~5五个数字开头,由3位整数组成:
------------------------------------------------------------------------------------------------
200:请求成功      处理方式:获得响应的内容,进行处理
201:请求完成,结果是创建了新资源。新创建资源的URI可在响应的实体中得到    处理方式:爬虫中不会遇到
202:请求被接受,但处理尚未完成    处理方式:阻塞等待
204:服务器端已经实现了请求,但是没有返回新的信 息。如果客户是用户代理,则无须为此更新自身的文档视图。    处理方式:丢弃
300:该状态码不被HTTP/1.0的应用程序直接使用, 只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。    处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃
301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源    处理方式:重定向到分配的URL
302:请求到的资源在一个不同的URL处临时保存     处理方式:重定向到临时的URL
304 请求的资源未更新     处理方式:丢弃
400 非法请求     处理方式:丢弃
401 未授权     处理方式:丢弃
403 禁止     处理方式:丢弃
404 没有找到     处理方式:丢弃
5XX 回应代码以“5”开头的状态码表示服务器端发现自己出现错误,不能继续执行请求    处理方式:丢弃
------------------------------------------------------------------------------------------------

HTTPError实例产生后会有一个整型'code'属性,是服务器发送的相关错误号。

Error Codes错误码

因为默认的处理器处理了重定向(300以外号码),并且100-299范围的号码指示成功,所以你只能看到400-599的错误号码。
BaseHTTPServer.BaseHTTPRequestHandler.response是一个很有用的应答号码字典,显示了HTTP协议使用的所有的应答号。
当一个错误号产生后,服务器返回一个HTTP错误号,和一个错误页面。
你可以使用HTTPError实例作为页面返回的应答对象response。
这表示和错误属性一样,它同样包含了read,geturl,和info方法。
我们建一个urllib2_test07.py来感受一下:

import urllib2  

req = urllib2.Request('https://3water.com/callmewhy')  

try:  

    urllib2.urlopen(req)  

except urllib2.URLError, e:  

    print e.code  

    #print e.read() 

按下F5可以看见输出了404的错误码,也就说没有找到这个页面。

3.Wrapping

所以如果你想为HTTPError或URLError做准备,将有两个基本的办法。推荐使用第二种。
我们建一个urllib2_test08.py来示范一下第一种异常处理的方案:

from urllib2 import Request, urlopen, URLError, HTTPError  

req = Request('https://3water.com/callmewhy')  

try:  

    response = urlopen(req)  

except HTTPError, e:  

    print 'The server couldn\'t fulfill the request.'  

    print 'Error code: ', e.code  

except URLError, e:  

    print 'We failed to reach a server.'  

    print 'Reason: ', e.reason  

else:  

    print 'No exception was raised.'  

    # everything is fine 

和其他语言相似,try之后捕获异常并且将其内容打印出来。
这里要注意的一点,except HTTPError 必须在第一个,否则except URLError将同样接受到HTTPError 。
因为HTTPError是URLError的子类,如果URLError在前面它会捕捉到所有的URLError(包括HTTPError )。

我们建一个urllib2_test09.py来示范一下第二种异常处理的方案:

from urllib2 import Request, urlopen, URLError, HTTPError  

req = Request('https://3water.com/callmewhy')  

try:    

    response = urlopen(req)    

except URLError, e:    

    if hasattr(e, 'code'):    

        print 'The server couldn\'t fulfill the request.'    

        print 'Error code: ', e.code    

    elif hasattr(e, 'reason'):    

        print 'We failed to reach a server.'    

        print 'Reason: ', e.reason    

else:    

    print 'No exception was raised.'    

    # everything is fine   
Python 相关文章推荐
从零学python系列之新版本导入httplib模块报ImportError解决方案
May 23 Python
python实现从web抓取文档的方法
Sep 26 Python
python判断图片宽度和高度后删除图片的方法
May 22 Python
python使用mysql的两种使用方式
Mar 07 Python
使用Python爬了4400条淘宝商品数据,竟发现了这些“潜规则”
Mar 23 Python
python批量导入数据进Elasticsearch的实例
May 30 Python
mac使用python识别图形验证码功能
Jan 10 Python
如何打包Python Web项目实现免安装一键启动的方法
May 21 Python
Python如何实现自带HTTP文件传输服务
Jul 08 Python
Python利用socket模块开发简单的端口扫描工具的实现
Jan 27 Python
python字符串拼接.join()和拆分.split()详解
Nov 23 Python
python_tkinter弹出对话框创建
Mar 20 Python
零基础写python爬虫之使用urllib2组件抓取网页内容
Nov 04 #Python
零基础写python爬虫之爬虫的定义及URL构成
Nov 04 #Python
使用Python编写简单网络爬虫抓取视频下载资源
Nov 04 #Python
Python爬取Coursera课程资源的详细过程
Nov 04 #Python
使用python开发vim插件及心得分享
Nov 04 #Python
Python学习笔记之os模块使用总结
Nov 03 #Python
Python中获取网页状态码的两个方法
Nov 03 #Python
You might like
php不用正则采集速度探究总结
2008/03/24 PHP
PHP 单引号与双引号的区别
2009/11/24 PHP
php简单socket服务器客户端代码实例
2015/05/18 PHP
详解WordPress中添加友情链接的方法
2016/05/21 PHP
php usort 使用用户自定义的比较函数对二维数组中的值进行排序
2017/05/02 PHP
老生常谈php中传统验证与thinkphp框架(必看篇)
2017/06/10 PHP
js禁止document element对象选中文本实现代码
2013/03/21 Javascript
ExtJs中gridpanel分组后组名排序实例代码
2013/12/02 Javascript
nodejs微信公众号支付开发
2016/09/19 NodeJs
vue中mint-ui环境搭建详细介绍
2017/04/06 Javascript
vue2.0中goods选购栏滚动算法的实现代码
2017/05/17 Javascript
jQuery实现切换隐藏与显示同时切换图标功能
2017/10/29 jQuery
cordova入门基础教程及使用中遇到的一些问题总结
2017/11/14 Javascript
使用VUE+iView+.Net Core上传图片的方法示例
2019/01/04 Javascript
Node.js net模块功能及事件监听用法分析
2019/01/05 Javascript
vue 动态表单开发方法案例详解
2019/12/02 Javascript
一篇文章带你使用Typescript封装一个Vue组件(简单易懂)
2020/06/05 Javascript
详解uniapp的全局变量实现方式
2021/01/11 Javascript
python实现k均值算法示例(k均值聚类算法)
2014/03/16 Python
python中from module import * 的一个坑
2014/07/20 Python
Python实现线程池代码分享
2015/06/21 Python
Python2.7 实现引入自己写的类方法
2018/04/29 Python
pytorch中的weight-initilzation用法
2020/06/24 Python
Python如何读写字节数据
2020/08/05 Python
深入探究HTML5的History API
2015/07/09 HTML / CSS
Qoo10台湾站:亚洲领先的在线市场
2018/05/15 全球购物
装饰活动策划方案
2014/02/11 职场文书
婚假请假条怎么写
2014/04/10 职场文书
12.4法制宣传日标语
2014/10/08 职场文书
2014年办公室文秘工作总结
2014/12/09 职场文书
优秀大学生事迹材料
2014/12/24 职场文书
2015年科研工作总结范文
2015/05/13 职场文书
毕业实习证明范本
2015/06/16 职场文书
投诉信回复范文
2015/07/03 职场文书
2016年综治宣传月活动宣传标语口号
2016/03/16 职场文书
python opencv旋转图片的使用方法
2021/06/04 Python