编写Python脚本来获取Google搜索结果的示例


Posted in Python onMay 04, 2015

前一段时间一直在研究如何用python抓取搜索引擎结果,在实现的过程中遇到了很多的问题,我把我遇到的问题都记录下来,希望以后遇到同样问题的童鞋不要再走弯路。

1. 搜索引擎的选取

选择一个好的搜索引擎意味着你能够得到更准确的搜索结果。我用过的搜索引擎有四种:Google、Bing、Baidu、Yahoo!。 作为程序员,我首选Google。但当我看见我最爱的Google返回给我的全是一堆的js代码,根本没我想要的搜索结果。于是我转而投向了Bing的阵营,在用过一段时间后我发现Bing返回的搜索结果对于我的问题来说不太理想。正当我要绝望时,Google拯救了我。原来Google为了照顾那些禁止浏览器使用js的用户,还有另外一种搜索方式,请看下面的搜索URL:

https://www.google.com.hk/search?hl=en&q=hello

hl指定要搜索的语言,q就是你要搜索的关键字。 好了,感谢Google,搜索结果页面包含我要抓取的内容。

PS: 网上很多利用python抓取Google搜索结果还是利用 https://ajax.googleapis.com/ajax/services/search/web... 的方法。需要注意的是这个方法Google已经不再推荐使用了,见 https://developers.google.com/web-search/docs/ 。Google现在提供了Custom Search API, 不过API限制每天100次请求,如果需要更多则只能花钱买。

2. Python抓取并分析网页

利用Python抓取网页很方便,不多说,见代码:

def search(self, queryStr):
   queryStr = urllib2.quote(queryStr)
   url = 'https://www.google.com.hk/search?hl=en&q=%s' % queryStr
   request = urllib2.Request(url)
   response = urllib2.urlopen(request)
   html = response.read()
   results = self.extractSearchResults(html)

第6行的 html 就是我们抓取的搜索结果页面源码。使用过Python的同学会发现,Python同时提供了urllib 和 urllib2两个模块,都是和URL请求相关的模块,不过提供了不同的功能,urllib只可以接收URL,而urllib2可以接受一个Request类的实例来设置URL请求的headers,这意味着你可以伪装你的user agent 等(下面会用到)。

现在我们已经可以用Python抓取网页并保存下来,接下来我们就可以从源码页面中抽取我们想要的搜索结果。Python提供了htmlparser模块,不过用起来相对比较麻烦,这里推荐一个很好用的网页分析包BeautifulSoup,关于BeautifulSoup的用法官网有详细的介绍,这里我不再多说。

利用上面的代码,对于少量的查询还比较OK,但如果要进行上千上万次的查询,上面的方法就不再有效了, Google会检测你请求的来源,如果我们利用机器频繁爬取Google的搜索结果,不多久就Google会block你的IP,并给你返回503 Error页面。这不是我们想要的结果,于是我们还要继续探索

前面提到利用urllib2我们可以设置URL请求的headers,  伪装我们的user agent。简单的说,user agent就是客户端浏览器等应用程序使用的一种特殊的网络协议, 在每次浏览器(邮件客户端/搜索引擎蜘蛛)进行 HTTP 请求时发送到服务器,服务器就知道了用户是使用什么浏览器(邮件客户端/搜索引擎蜘蛛)来访问的。 有时候为了达到一些目的,我们不得不去善意的欺骗服务器告诉它我不是在用机器访问你。

于是,我们的代码就成了下面这个样子:

user_agents = ['Mozilla/5.0 (Windows NT 6.1; WOW64; rv:23.0) Gecko/20130406 Firefox/23.0', \
     'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:18.0) Gecko/20100101 Firefox/18.0', \
     'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/533+ \
     (KHTML, like Gecko) Element Browser 5.0', \
     'IBM WebExplorer /v0.94', 'Galaxy/1.0 [en] (Mac OS X 10.5.6; U; en)', \
     'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.1; WOW64; Trident/6.0)', \
     'Opera/9.80 (Windows NT 6.0) Presto/2.12.388 Version/12.14', \
     'Mozilla/5.0 (iPad; CPU OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) \
     Version/6.0 Mobile/10A5355d Safari/8536.25', \
     'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) \
     Chrome/28.0.1468.0 Safari/537.36', \
     'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.0; Trident/5.0; TheWorld)']
 def search(self, queryStr):
   queryStr = urllib2.quote(queryStr)
   url = 'https://www.google.com.hk/search?hl=en&q=%s' % queryStr
   request = urllib2.Request(url)
   index = random.randint(0, 9)
   user_agent = user_agents[index]
   request.add_header('User-agent', user_agent)
   response = urllib2.urlopen(request)
   html = response.read()
   results = self.extractSearchResults(html)

不要被user_agents那个list吓到,那其实就是10个user agent 字符串,这么做是让我们伪装的更好一些,如果你需要更多的user agent 请看这里 UserAgentString。

17-19行表示随机选择一个user agent 字符串,然后用request 的add_header方法伪装一个user agent。

通过伪装user agent能够让我们持续抓取搜索引擎结果,如果这样还不行,那我建议在每两次查询间随机休眠一段时间,这样会影响抓取速度,但是能够让你更持续的抓取结果,如果你有多个IP,那抓取的速度也就上来了。

github上有本文所有源代码,需要的同学可从下面的网址下载:

https://github.com/meibenjin/GoogleSearchCrawler

Python 相关文章推荐
python list转dict示例分享
Jan 28 Python
python实现rest请求api示例
Apr 22 Python
深入理解Python中的元类(metaclass)
Feb 14 Python
python判断给定的字符串是否是有效日期的方法
May 13 Python
在python2.7中用numpy.reshape 对图像进行切割的方法
Dec 05 Python
python使用pdfminer解析pdf文件的方法示例
Dec 20 Python
利用Python半自动化生成Nessus报告的方法
Mar 19 Python
python添加菜单图文讲解
Jun 04 Python
树莓派4B+opencv4+python 打开摄像头的实现方法
Oct 18 Python
Python 异步协程函数原理及实例详解
Nov 13 Python
pytorch实现建立自己的数据集(以mnist为例)
Jan 18 Python
Python爬虫实战案例之爬取喜马拉雅音频数据详解
Dec 07 Python
编写Python脚本来实现最简单的FTP下载的教程
May 04 #Python
Python下线程之间的共享和释放示例
May 04 #Python
简单介绍Python中利用生成器实现的并发编程
May 04 #Python
简单分析Python中用fork()函数生成的子进程
May 04 #Python
python实现从字典中删除元素的方法
May 04 #Python
Python中利用原始套接字进行网络编程的示例
May 04 #Python
python通过索引遍历列表的方法
May 04 #Python
You might like
图片存储与浏览一例(Linux+Apache+PHP+MySQL)
2006/10/09 PHP
无JS,完全php面向过程数据分页实现代码
2012/08/27 PHP
php数组随机排序实现方法
2015/06/13 PHP
PHP简单读取PDF页数的实现方法
2016/07/21 PHP
关于Laravel-admin的基础用法总结和自定义model详解
2019/10/08 PHP
jQuery 1.0.4 - New Wave Javascript(js源文件)
2007/01/15 Javascript
基于jquery的无限级联下拉框js插件
2011/10/29 Javascript
jquery实现textarea输入字符控制(仿微博输入控制字符)
2013/04/26 Javascript
EasyUI实现二级页面的内容勾选的方法
2015/03/01 Javascript
jQuery基于json与cookie实现购物车的方法
2016/04/15 Javascript
基于JS实现EOS隐藏错误提示层代码
2016/04/25 Javascript
浅谈jquery页面初始化的4种方式
2016/11/27 Javascript
详解JS数组Reduce()方法详解及高级技巧
2017/08/18 Javascript
JavaScript实现各种排序的代码详解
2017/08/28 Javascript
用Axios Element实现全局的请求loading的方法
2018/03/15 Javascript
微信小程序常用赋值方法小结
2019/04/30 Javascript
Vue项目中配置pug解析支持
2019/05/10 Javascript
python批量修改文件名的实现代码
2014/09/01 Python
在Python中使用dict和set方法的教程
2015/04/27 Python
Python2.x中文乱码问题解决方法
2015/06/02 Python
python 中的list和array的不同之处及转换问题
2018/03/13 Python
pycham查看程序执行的时间方法
2018/11/29 Python
python实现微信定时每天和女友发送消息
2019/04/29 Python
选择python进行数据分析的理由和优势
2019/06/25 Python
在pycharm中为项目导入anacodna环境的操作方法
2020/02/12 Python
如何配置关联Python 解释器 Anaconda的教程(图解)
2020/04/30 Python
浅析Python 简单工厂模式和工厂方法模式的优缺点
2020/07/13 Python
美国最大的珠宝首饰网上商城:Jewelry.com
2016/07/22 全球购物
史上最全面的Java面试题汇总!
2015/02/03 面试题
平安家庭示范户事迹
2014/06/02 职场文书
广播体操口号
2014/06/18 职场文书
学院党的群众路线教育实践活动整改方案
2014/10/04 职场文书
2014小学教师个人工作总结
2014/11/10 职场文书
班级管理经验交流材料
2015/11/02 职场文书
宣传委员竞选稿
2015/11/19 职场文书
MySQL中一条update语句是如何执行的
2022/03/16 MySQL