利用Python写一个爬妹子的爬虫


Posted in Python onJune 08, 2018

前言

最近学完Python,写了几个爬虫练练手,网上的教程有很多,但是有的已经不能爬了,主要是网站经常改,可是爬虫还是有通用的思路的,即下载数据、解析数据、保存数据。下面一一来讲。

1.下载数据

首先打开要爬的网站,分析URL,每打开一个网页看URL有什么变化,有可能带上上个网页的某个数据,例如xxID之类,那么我们就需要在上一个页面分析HTML,找到对应的数据。如果网页源码找不到,可能是ajax异步加载,去xhr里去找。

 利用Python写一个爬妹子的爬虫

有的网站做了反爬的处理,可以添加User-Agent :判断浏览器

self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
# 初始化 headers
self.headers = {'User-Agent': self.user_agent}

如果不行,在Chrome上按F12分析请求头、请求体,看需不需要添加别的信息,例如有的网址添加了referer:记住当前网页的来源,那么我们在请求的时候就可以带上。按Ctrl + Shift + C,可以定位元素在HTML上的位置

动态网页

有一些网页是动态网页,我们得到网页的时候,数据还没请求到呢,当然什么都提取不出来,用Python 解决这个问题只有两种途径:直接从JavaScript 代码里采集内容,或者用Python 的第三方库运行JavaScript,直接采集你在浏览器里看到的页面。

1.找请求,看返回的内容,网页的内容可能就在这里。然后可以复制请求,复杂的网址中,有些乱七八糟的可以删除,有意义的部分保留。切记删除一小部分后先尝试能不能打开网页,如果成功再删减,直到不能删减。

2.Selenium:是一个强大的网络数据采集工具(但是速度慢),其最初是为网站自动化测试而开发的。近几年,它还被广泛用于获取精确的网站快照,因为它们可以直接运行在浏览器上。Selenium 库是一个在WebDriver 上调用的API。

WebDriver 有点儿像可以加载网站的浏览器,但是它也可以像BeautifulSoup对象一样用来查找页面元素,与页面上的元素进行交互(发送文本、点击等),以及执行其他动作来运行网络爬虫。

PhantomJS:是一个“无头”(headless)浏览器。它会把网站加载到内存并执行页面上的JavaScript,但是它不会向用户展示网页的图形界面。把Selenium和PhantomJS 结合在一起,就可以运行一个非常强大的网络爬虫了,可以处理cookie、JavaScript、header,以及任何你需要做的事情。

下载数据的模块有urllib、urllib2及Requests

Requests相比其他俩个的话,支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自 动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码,而且api相对来说也简单,但是requests直接使用不能异步调用,速度慢。

html = requests.get(url, headers=headers) #没错,就是这么简单

urllib2以我爬取淘宝的妹子例子来说明: 

利用Python写一个爬妹子的爬虫

user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = {'User-Agent': user_agent}
# 注意:form data请求参数
params = 'q&viewFlag=A&sortType=default&searchStyle=&searchRegion=city%3A&searchFansNum=¤tPage=1&pageSize=100'
 
 
def getHome():
 url = 'https://mm.taobao.com/tstar/search/tstar_model.do?_input_charset=utf-8'
 req = urllib2.Request(url, headers=headers)
 # decode('utf - 8')解码 把其他编码转换成unicode编码
 # encode('gbk') 编码 把unicode编码转换成其他编码
 # ”gbk”.decode('gbk').encode('utf - 8')
 # unicode = 中文
 # gbk = 英文
 # utf - 8 = 日文
 # 英文一 > 中文一 > 日文,unicode相当于转化器
 html = urllib2.urlopen(req, data=params).read().decode('gbk').encode('utf-8')
 # json转对象
 peoples = json.loads(html)
 for i in peoples['data']['searchDOList']:
 #去下一个页面获取数据
 getUseInfo(i['userId'], i['realName'])

2.解析数据

解析数据也有很多方式,我只看了beautifulsoup和正则,这个例子是用正则来解析的

def getUseInfo(userId, realName):
 url = 'https://mm.taobao.com/self/aiShow.htm?userId=' + str(userId)
 req = urllib2.Request(url)
 html = urllib2.urlopen(req).read().decode('gbk').encode('utf-8')
 
 pattern = re.compile('<img.*?src=(.*?)/>', re.S)
 items = re.findall(pattern, html)
 x = 0
 for item in items:
 if re.match(r'.*(.jpg")$', item.strip()):
 tt = 'http:' + re.split('"', item.strip())[1]
 down_image(tt, x, realName)
 x = x + 1
 print('下载完毕')

正则表达式说明

match:匹配string 开头,成功返回Match object, 失败返回None,只匹配一个。

search:在string中进行搜索,成功返回Match object, 失败返回None, 只匹配一个。

findall:在string中查找所有 匹配成功的组, 即用括号括起来的部分。返回list对象,每个list item是由每个匹配的所有组组成的list。

     1).*? 是一个固定的搭配,.和*代表可以匹配任意无限多个字符,加上?表示使用非贪婪模式进行匹配,也就是我们会尽可能短地做匹配

     2)(.*?)代表一个分组,如果有5个(.*?)就说明匹配了五个分组

     3) 正则表达式中,“.”的作用是匹配除“\n”以外的任何字符,也就是说,它是在一行中进行匹配。这里的“行”是以“\n”进行区分的。HTML标签每行的末尾有一个“\n”,不过它不可见。 如果不使用re.S参数,则只在每一行内进行匹配,如果一行没有,就换下一行重新开始,不会跨行。而使用re.S参数以后,正则表达式会将这个字符串作为一个整体,将“\n”当做一个普通的字符加入到这个字符串中,在整体中进行匹配。

3.保存数据

数据解析后可以保存到文件或数据库中,这个例子是保存到了文件中,很简单,就不做说明了,在下篇讲如何将数据保存到数据库

def down_image(url, filename, realName):
 req = urllib2.Request(url=url)
 folder = 'e:\\images\\%s' % realName
 if os.path.isdir(folder):
 pass
 else:
 os.makedirs(folder)
 
 f = folder + '\\%s.jpg' % filename
 if not os.path.isfile(f):
 print f
 binary_data = urllib2.urlopen(req).read()
 with open(f, 'wb') as temp_file:
 temp_file.write(binary_data)

GitHub地址,还有其他网站爬虫,欢迎star:https://github.com/peiniwan/CreeperTest (本地下载)

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,如果有疑问大家可以留言交流,谢谢大家对三水点靠木的支持。

Python 相关文章推荐
videocapture库制作python视频高速传输程序
Dec 23 Python
使用IPython下的Net-SNMP来管理类UNIX系统的教程
Apr 15 Python
python操作redis的方法
Jul 07 Python
用python写的一个wordpress的采集程序
Feb 27 Python
浅谈python socket函数中,send与sendall的区别与使用方法
May 09 Python
Odoo中如何生成唯一不重复的序列号详解
Feb 10 Python
python 常见字符串与函数的用法详解
Nov 23 Python
解决pandas .to_excel不覆盖已有sheet的问题
Dec 10 Python
详解Python数据可视化编程 - 词云生成并保存(jieba+WordCloud)
Mar 26 Python
关于Python中的向量相加和numpy中的向量相加效率对比
Aug 26 Python
使用keras实现densenet和Xception的模型融合
May 23 Python
在pyCharm中下载第三方库的方法
Apr 18 Python
python os用法总结
Jun 08 #Python
Python DataFrame 设置输出不显示index(索引)值的方法
Jun 07 #Python
浅谈Pandas 排序之后索引的问题
Jun 07 #Python
pandas.dataframe中根据条件获取元素所在的位置方法(索引)
Jun 07 #Python
python pandas 对series和dataframe的重置索引reindex方法
Jun 07 #Python
浅谈Series和DataFrame中的sort_index方法
Jun 07 #Python
解决DataFrame排序sort的问题
Jun 07 #Python
You might like
十天学会php(1)
2006/10/09 PHP
微信公众号OAuth2.0网页授权问题浅析
2017/01/21 PHP
javascript event 事件解析
2011/01/31 Javascript
js实现一个省市区三级联动选择框代码分享
2013/03/06 Javascript
实例讲解js验证表单项是否为空的方法
2016/01/09 Javascript
浏览器检测JS代码(兼容目前各大主流浏览器)
2016/02/21 Javascript
JS产生随机数的几个用法详解
2016/06/22 Javascript
关于JavaScript中事件绑定的方法总结
2016/10/26 Javascript
js中的触发事件对象event.srcElement与event.target详解
2017/03/15 Javascript
详解基于vue-cli优化的webpack配置
2017/11/06 Javascript
jQuery+SpringMVC中的复选框选择与传值实例
2018/01/08 jQuery
JavaScript事件发布/订阅模式原理与用法分析
2018/08/21 Javascript
React父子组件间的传值的方法
2018/11/13 Javascript
react 不用插件实现数字滚动的效果示例
2020/04/14 Javascript
如何使用JavaScript检测空闲的浏览器选项卡
2020/05/28 Javascript
js重写alert事件(避免alert弹框标题出现网址)
2020/12/04 Javascript
python分析nignx访问日志脚本分享
2015/02/26 Python
深入理解Python对Json的解析
2017/02/14 Python
python虚拟环境virtualenv的安装与使用
2017/09/21 Python
浅谈python 导入模块和解决文件句柄找不到问题
2018/12/15 Python
Python面向对象之类的定义与继承用法示例
2019/01/14 Python
python模拟菜刀反弹shell绕过限制【推荐】
2019/06/25 Python
Python count函数使用方法实例解析
2020/03/23 Python
python 实现数据库中数据添加、查询与更新的示例代码
2020/12/07 Python
香港草莓网土耳其网站:Strawberrynet TR
2017/03/02 全球购物
美国唇部护理专家:Sara Happ
2019/06/19 全球购物
英文简历中的自荐信范文
2013/12/14 职场文书
售后服务经理岗位职责范本
2014/02/22 职场文书
报关专员求职信范文
2014/02/22 职场文书
租赁协议书范本
2014/04/22 职场文书
优秀教师感人事迹材料
2014/05/04 职场文书
解放思想大讨论活动总结
2015/05/09 职场文书
科技活动总结范文
2015/05/11 职场文书
上帝也疯狂观后感
2015/06/09 职场文书
MySQL连表查询分组去重的实现示例
2021/07/01 MySQL
python高温预警数据获取实例
2022/07/23 Python