使用Python的urllib和urllib2模块制作爬虫的实例教程


Posted in Python onJanuary 20, 2016

urllib
学习python完基础,有些迷茫.眼睛一闭,一种空白的窒息源源不断而来.还是缺少练习,遂拿爬虫来练练手.学习完斯巴达python爬虫课程后,将心得整理如下,供后续翻看.整篇笔记主要分以下几个部分:

  • 1.做一个简单的爬虫程序
  • 2.小试牛刀--抓取百度贴吧图片
  • 3.总结

1.做一个简单的爬虫程序
首先环境描述

  • Device: Mba 2012 Yosemite 10.10.1
  • Python: python 2.7.9
  • 编辑器: Sublime Text 3

这个没有什么好说的,直接上代码吧!

'''
@ urllib为python自带的一个网络库
@ urlopen为urllib的一个方法,用于打开一个连接并抓取网页,
 然后通过read()方法把值赋给read()
'''
import urllib

url = "http://www.lifevc.com"#多嘴两句,为什么要选lifevc呢,主要是最近它很惹我.
html = urllib.urlopen(url)
content = html.read()
html.close()
#可以通过print打印出网页内容
print content

很简单,基本上没有可说的,这个也就是python的魅力,几行代码就完成.
当然我们仅仅抓取网页,没有实在的价值.接下来我们就开始做一点有意义的事情.

2.小试牛刀
抓取百度贴吧图片
其实也很简单,因为要抓取图片,还需要先分析一下网页源代码
(这里以知道基本html知识,浏览器以chrome为例)
如图,这里简要说下步骤,请参考.

打开网页,右键点击,选择"inspect Element"(最下面这一项)
点击下面弹起来的框框最左边那个问号,问号会变成蓝色
移动鼠标去点击我们想要抓取的图片(一个萌妹子)
如图,我们就可以图片在源码中的位置了

使用Python的urllib和urllib2模块制作爬虫的实例教程

下面将源码相关拷贝出来

<img class="BDE_Image" src="http://imgsrc.baidu.com/forum/w%3D580/
sign=3d5aacaab21c8701d6b6b2ee177e9e6e/17a6d439b6003af329aece2e342ac65c1138b6d8.
jpg" height="840" width="560" style="cursor: url(http://tb2.bdstatic.com/tb/
static-pb/img/cur_zin.cur), pointer;">

经分析和对比(这里略掉),基本上可以看到要抓取的图片几个特征:

  • 在img标签下
  • 在名为BDE_Image的类下面
  • 图片格式为jpg

正则表达式后续我会更新,请关注

依照上述判断,直接上代码

'''
@本程序用来下载百度贴吧图片
@re 为正则说明库
'''
import urllib
import re

# 获取网页html信息
url = "http://tieba.baidu.com/p/2336739808"
html = urllib.urlopen(url)
content = html.read()
html.close()

# 通过正则匹配图片特征,并获取图片链接
img_tag = re.compile(r'class="BDE_Image" src="(.+?\.jpg)"')
img_links = re.findall(img_tag, content)

# 下载图片 img_counter为图片计数器(文件名)
img_counter = 0
for img_link in img_links:
  img_name = '%s.jpg' % img_counter
  urllib.urlretrieve(img_link, "//Users//Sean//Downloads//tieba//%s" %img_name)
  img_counter += 1

如图,我们就抓取你懂的图片

使用Python的urllib和urllib2模块制作爬虫的实例教程

3.总结
如上两节,我们就很轻松的就可以网页或者图片.
补充一点小技巧,如果遇到不是很明白的库或者方法,可以通过以下方法进行初步了解.

  • dir(urllib)                     #查看当前库有哪些方法
  • help(urllib.urlretrieve)        #查看跟当前方法相关的作用或者参数,官方比较权威

或者https://docs.python.org/2/library/index.html进项相关搜索.

当然百度也可以,但是效率太低.建议使用 http://xie.lu 进行相关搜索(你懂了,绝对满意).
这里我们讲解如何抓取网页和下载图片,在下面我们会讲解如何抓取有限制抓取的网站.

urllib2
上面我们讲解如何抓取网页和下载图片,在下一节里面我们会讲解如何抓取有限制抓取的网站
首先,我们依然用我们上一节课的方法去抓取一个大家都用来举例的网站<blog.cndn.net>,本文主要分以下几个部分:

  • 1.抓取受限网页
  • 2.对代码进行一些优化

1.抓取受限网页

首先使用我们上一节学到的知识测试一下:

'''
@本程序用来抓取blog.csdn.net网页
'''
import urllib

url = "http://blog.csdn.net/FansUnion"
html = urllib.urlopen(url)
#getcode()方法为返回Http状态码
print html.getcode()
html.close()
#输出
403

此处我们的输出为403,代表拒绝访问;同理200表示请求成功完成;404表示网址未找到.
可见csdn已做了相关屏蔽,通过第一节的方法是无法获取网页,在这里我们需要启动一个新的库:urllib2
但是我们也看到浏览器可以发那个文,是不是我们模拟浏览器操作,就可以获取网页信息.
老办法,我们先来看看浏览器是如何提交请求给csdn服务器的.首先简述一下方法:

  • 打开网页,右键点击,选择"inspect Element"(最下面这一项)
  • 点击下面弹起来的框框的Network选项卡
  • 刷新网页,就可以看到Network选项卡抓取了很多信息
  • 找到其中一个信息展开,就能看到请求包的Header

使用Python的urllib和urllib2模块制作爬虫的实例教程

以下就是整理后的Header信息

Request Method:GET
Host:blog.csdn.net
Referer:http://blog.csdn.net/?ref=toolbar_logo
User-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.104 Safari/537.36

然后根据提取的Header信息,利用urllib2的Request方法模拟浏览器向服务器提交请求,代码如下:

# coding=utf-8
'''
@本程序用来抓取受限网页(blog.csdn.net)
@User-Agent:客户端浏览器版本
@Host:服务器地址
@Referer:跳转地址
@GET:请求方法为GET
'''
import urllib2

url = "http://blog.csdn.net/FansUnion"

#定制自定义Header,模拟浏览器向服务器提交请求
req = urllib2.Request(url)
req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36')
req.add_header('Host', 'blog.csdn.net')
req.add_header('Referer', 'http://blog.csdn.net')
req.add_header('GET', url)

#下载网页html并打印
html = urllib2.urlopen(req)
content = html.read()
print content
html.close()

呵呵,你限制我,我就跳过你的限制.据说只要浏览器能够访问的,就能够通过爬虫抓取.

2.对代码进行一些优化
简化提交Header方法
发现每次写那么多req.add_header对自己来说是一种折磨,有没有什么方法可以只要复制过来就使用.答案是肯定的.

#input:
help(urllib2.Request)
#output(因篇幅关系,只取__init__方法)
__init__(self, url, data=None, headers={}, origin_req_host=None, unverifiable=False)
通过观察,我们发现headers={},就是说可以以字典的方式提交header信息.那就动手试试咯!!

#只取自定义Header部分代码
csdn_headers = {
  "User-Agent": "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",
  "Host": "blog.csdn.net",
  'Referer': 'http://blog.csdn.net',
  "GET": url
  }
req = urllib2.Request(url,headers=csdn_headers)

发现是不是很简单,在这里感谢斯巴达的无私赐教.

提供动态头部信息
如果按照上述方法进行抓取,很多时候会因为提交信息过于单一,被服务器认为是机器爬虫进行拒绝.
那我们是不是有一些更为智能的方法提交一些动态的数据,答案肯定也是肯定的.而且很简单,直接上代码!

'''
@本程序是用来动态提交Header信息
@random 动态库,详情请参考<https://docs.python.org/2/library/random.html>
'''

# coding=utf-8
import urllib2
import random

url = 'http://www.lifevc.com/'

my_headers = [
  'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; .NET CLR 3.0.04506.30; .NET CLR 3.0.04506.648)',
  'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; InfoPath.1',
  'Mozilla/4.0 (compatible; GoogleToolbar 5.0.2124.2070; Windows 6.0; MSIE 8.0.6001.18241)',
  'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)',
  'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; Sleipnir/2.9.8)',
  #因篇幅关系,此处省略N条
]

random_header = random.choice(headers)
# 可以通过print random_header查看提交的header信息
req = urllib2.Request(url)
req.add_header("User-Agent", random_header)
req.add_header('Host', 'blog.csdn.net')
req.add_header('Referer', 'http://blog.csdn.net')
req.add_header('GET', url)
content = urllib2.urlopen(req).read()
print content

其实很简单,这样我们就完成了对代码的一些优化.

Python 相关文章推荐
详细讲解Python中的文件I/O操作
May 24 Python
Python中操作文件之write()方法的使用教程
May 25 Python
Python的条件语句与运算符优先级详解
Oct 13 Python
使用Kivy将python程序打包为apk文件
Jul 29 Python
python2.7无法使用pip的解决方法(安装easy_install)
Apr 03 Python
基于python代码实现简易滤除数字的方法
Jul 17 Python
如何基于python实现归一化处理
Jan 20 Python
Python气泡提示与标签的实现
Apr 01 Python
python 实现任务管理清单案例
Apr 25 Python
python如何停止递归
Sep 09 Python
使用豆瓣源来安装python中的第三方库方法
Jan 26 Python
Python基础之进程详解
May 21 Python
使用python实现省市三级菜单效果
Jan 20 #Python
八大排序算法的Python实现
Jan 28 #Python
详解C++编程中一元运算符的重载
Jan 19 #Python
Python中使用Queue和Condition进行线程同步的方法
Jan 19 #Python
简单总结Python中序列与字典的相同和不同之处
Jan 19 #Python
举例讲解如何在Python编程中进行迭代和遍历
Jan 19 #Python
Python的自动化部署模块Fabric的安装及使用指南
Jan 19 #Python
You might like
php &amp;&amp; 逻辑与运算符使用说明
2010/03/04 PHP
基于PHP导出Excel的小经验 完美解决乱码问题
2013/06/10 PHP
php中通过数组进行高效随机抽取指定条记录的算法
2013/09/09 PHP
PHP empty函数报错解决办法
2014/03/06 PHP
php设计模式之备忘模式分析【星际争霸游戏案例】
2020/03/24 PHP
php7连接MySQL实现简易查询程序的方法
2020/10/13 PHP
通过jquery还原含有rowspan、colspan的table的实现方法
2012/02/10 Javascript
火狐textarea输入法的bug的触发及解决
2013/07/24 Javascript
使用jquery中height()方法获取各种高度大全
2014/04/02 Javascript
jQuery中的pushStack实现原理和应用实例
2015/02/03 Javascript
jQuery实现向下滑出的平滑下拉菜单效果
2015/08/21 Javascript
jQuery超简单选项卡完整实例
2015/09/26 Javascript
基于JavaScript实现仿京东图片轮播效果
2015/11/06 Javascript
JavaScript自学笔记(必看篇)
2016/06/23 Javascript
JS文件上传神器bootstrap fileinput详解
2021/01/28 Javascript
Javascript使用SWFUpload进行多文件上传
2016/11/16 Javascript
vue-router路由简单案例介绍
2017/02/21 Javascript
微信小程序实现form表单本地储存数据
2019/06/27 Javascript
Vue中通过属性绑定为元素绑定style行内样式的实例代码
2020/04/30 Javascript
.netcore+vue 实现压缩文件下载功能
2020/09/24 Javascript
python3实现短网址和数字相互转换的方法
2015/04/28 Python
python利用sklearn包编写决策树源代码
2017/12/21 Python
python如何把嵌套列表转变成普通列表
2018/03/20 Python
python读取中文txt文本的方法
2018/04/12 Python
Python实现多条件筛选目标数据功能【测试可用】
2018/06/13 Python
python树莓派红外反射传感器
2019/01/21 Python
Python3并发写文件与Python对比
2019/11/20 Python
python opencv根据颜色进行目标检测的方法示例
2020/01/15 Python
使用Python爬虫库requests发送表单数据和JSON数据
2020/01/25 Python
Django框架静态文件处理、中间件、上传文件操作实例详解
2020/02/29 Python
Python实现定时监测网站运行状态的示例代码
2020/09/30 Python
汽车运用工程系毕业生自荐信
2013/12/27 职场文书
国税会议欢迎词
2014/01/16 职场文书
财务会计专业自荐书
2014/06/30 职场文书
初中团委工作总结
2015/08/13 职场文书
2015年新教师个人工作总结
2015/10/14 职场文书