用Python编写简单的微博爬虫


Posted in Python onMarch 04, 2016

先说点题外话,我一开始想使用Sina Weibo API来获取微博内容,但后来发现新浪微博的API限制实在太多,大家感受一下:

用Python编写简单的微博爬虫

只能获取当前授权的用户(就是自己),而且只能返回最新的5条,WTF!
所以果断放弃掉这条路,改为『生爬』,因为PC端的微博是Ajax的动态加载,爬取起来有些困难,我果断知难而退,改为对移动端的微博进行爬取,因为移动端的微博可以通过分页爬取的方式来一次性爬取所有微博内容,这样工作就简化了不少。

最后实现的功能:

1、输入要爬取的微博用户的user_id,获得该用户的所有微博
2、文字内容保存到以%user_id命名文本文件中,所有高清原图保存在weibo_image文件夹中
具体操作:
首先我们要获得自己的cookie,这里只说chrome的获取方法。

1、用chrome打开新浪微博移动端
2、option+command+i调出开发者工具
3、点开Network,将Preserve log选项选中
4、输入账号密码,登录新浪微博

用Python编写简单的微博爬虫

5、找到m.weibo.cn->Headers->Cookie,把cookie复制到代码中的#your cookie处

用Python编写简单的微博爬虫

然后再获取你想爬取的用户的user_id,这个我不用多说啥了吧,点开用户主页,地址栏里面那个号码就是user_id

用Python编写简单的微博爬虫

将python代码保存到weibo_spider.py文件中
定位到当前目录下后,命令行执行python weibo_spider.py user_id
当然如果你忘记在后面加user_id,执行的时候命令行也会提示你输入

最后执行结束

用Python编写简单的微博爬虫

用Python编写简单的微博爬虫

用Python编写简单的微博爬虫

小问题:在我的测试中,有的时候会出现图片下载失败的问题,具体原因还不是很清楚,可能是网速问题,因为我宿舍的网速实在太不稳定了,当然也有可能是别的问题,所以在程序根目录下面,我还生成了一个userid_imageurls的文本文件,里面存储了爬取的所有图片的下载链接,如果出现大片的图片下载失败,可以将该链接群一股脑导进迅雷等下载工具进行下载。

另外,我的系统是OSX EI Capitan10.11.2,Python的版本是2.7,依赖库用sudo pip install XXXX就可以安装,具体配置问题可以自行stackoverflow,这里就不展开讲了。

下面我就给出实现代码

#-*-coding:utf8-*-

import re
import string
import sys
import os
import urllib
import urllib2
from bs4 import BeautifulSoup
import requests
from lxml import etree

reload(sys) 
sys.setdefaultencoding('utf-8')
if(len(sys.argv)>=2):
  user_id = (int)(sys.argv[1])
else:
  user_id = (int)(raw_input(u"请输入user_id: "))

cookie = {"Cookie": "#your cookie"}
url = 'http://weibo.cn/u/%d?filter=1&page=1'%user_id

html = requests.get(url, cookies = cookie).content
selector = etree.HTML(html)
pageNum = (int)(selector.xpath('//input[@name="mp"]')[0].attrib['value'])

result = "" 
urllist_set = set()
word_count = 1
image_count = 1

print u'爬虫准备就绪...'

for page in range(1,pageNum+1):

 #获取lxml页面
 url = 'http://weibo.cn/u/%d?filter=1&page=%d'%(user_id,page) 
 lxml = requests.get(url, cookies = cookie).content

 #文字爬取
 selector = etree.HTML(lxml)
 content = selector.xpath('//span[@class="ctt"]')
 for each in content:
  text = each.xpath('string(.)')
  if word_count>=4:
   text = "%d :"%(word_count-3) +text+"\n\n"
  else :
   text = text+"\n\n"
  result = result + text
  word_count += 1

 #图片爬取
 soup = BeautifulSoup(lxml, "lxml")
 urllist = soup.find_all('a',href=re.compile(r'^http://weibo.cn/mblog/oripic',re.I))
 first = 0
 for imgurl in urllist:
  urllist_set.add(requests.get(imgurl['href'], cookies = cookie).url)
  image_count +=1

fo = open("/Users/Personals/%s"%user_id, "wb")
fo.write(result)
word_path=os.getcwd()+'/%d'%user_id
print u'文字微博爬取完毕'

link = ""
fo2 = open("/Users/Personals/%s_imageurls"%user_id, "wb")
for eachlink in urllist_set:
 link = link + eachlink +"\n"
fo2.write(link)
print u'图片链接爬取完毕'


if not urllist_set:
 print u'该页面中不存在图片'
else:
 #下载图片,保存在当前目录的pythonimg文件夹下
 image_path=os.getcwd()+'/weibo_image'
 if os.path.exists(image_path) is False:
  os.mkdir(image_path)
 x=1
 for imgurl in urllist_set:
  temp= image_path + '/%s.jpg' % x
  print u'正在下载第%s张图片' % x
  try:
   urllib.urlretrieve(urllib2.urlopen(imgurl).geturl(),temp)
  except:
   print u"该图片下载失败:%s"%imgurl
  x+=1

print u'原创微博爬取完毕,共%d条,保存路径%s'%(word_count-4,word_path)
print u'微博图片爬取完毕,共%d张,保存路径%s'%(image_count-1,image_path)

一个简单的微博爬虫就完成了,希望对大家的学习有所帮助。

Python 相关文章推荐
python简单实现基数排序算法
May 16 Python
Python爬取qq music中的音乐url及批量下载
Mar 23 Python
Python构建网页爬虫原理分析
Dec 19 Python
Python数据分析matplotlib设置多个子图的间距方法
Aug 03 Python
详解Python读取yaml文件多层菜单
Mar 23 Python
Python OpenCV利用笔记本摄像头实现人脸检测
Aug 20 Python
Python3多目标赋值及共享引用注意事项
May 27 Python
python小程序实现刷票功能详解
Jul 17 Python
python 比较2张图片的相似度的方法示例
Dec 18 Python
Python 实现敏感目录扫描的示例代码
May 21 Python
Python模拟登入的N种方式(建议收藏)
May 31 Python
python中pathlib模块的基本用法与总结
Aug 17 Python
python相似模块用例
Mar 04 #Python
Python程序中用csv模块来操作csv文件的基本使用教程
Mar 03 #Python
举例简单讲解Python中的数据存储模块shelve的用法
Mar 03 #Python
Python中的数据对象持久化存储模块pickle的使用示例
Mar 03 #Python
Python和Perl绘制中国北京跑步地图的方法
Mar 03 #Python
python套接字流重定向实例汇总
Mar 03 #Python
Python设计模式中单例模式的实现及在Tornado中的应用
Mar 02 #Python
You might like
PHP递归算法的详细示例分析
2013/02/19 PHP
discuz目录文件资料汇总
2014/12/30 PHP
JavaScript与HTML结合的基本使用方法整理
2015/10/12 PHP
Yii2使用swiftmailer发送邮件的方法
2016/05/03 PHP
js textarea自动增高并隐藏滚动条
2009/12/16 Javascript
javascript 全选与全取消功能的实现代码
2012/12/23 Javascript
JS自定义功能函数实现动态添加网址参数修改网址参数值
2013/08/02 Javascript
js中switch case循环实例代码
2013/12/30 Javascript
IE中getElementsByName()对有些元素无效的解决方案
2014/09/28 Javascript
JavaScript实现函数返回多个值的方法
2015/06/09 Javascript
jQuery实现自动切换播放的经典滑动门效果
2015/09/12 Javascript
Bootstrap每天必学之栅格系统(布局)
2015/11/25 Javascript
jQuery模拟完美实现经典FLASH导航动画效果【附demo源码下载】
2016/11/09 Javascript
js实现获取鼠标当前的位置
2016/12/14 Javascript
Bootstrap popover用法详解
2016/12/22 Javascript
jQuery+Ajax实现用户名重名实时检测
2017/06/01 jQuery
vue-cli webpack 引入jquery的方法
2018/01/10 jQuery
JavaScript中为事件指定处理程序的五种方式分析
2018/07/27 Javascript
jquery判断滚动条距离顶部的距离方法
2018/09/05 jQuery
Vue.js特性Scoped Slots的浅析
2019/02/20 Javascript
通过扫小程序码实现网站登陆功能
2019/08/22 Javascript
python根据开头和结尾字符串获取中间字符串的方法
2015/03/26 Python
在Python中marshal对象序列化的相关知识
2015/07/01 Python
Python实现简易过滤删除数字的方法小结
2019/01/09 Python
如何基于Python + requests实现发送HTTP请求
2020/01/13 Python
pycharm设置默认的UTF-8编码模式的方法详解
2020/06/01 Python
CSS3网格的三个新特性详解
2014/04/04 HTML / CSS
纽约的奢华内衣店:Journelle
2016/07/29 全球购物
Aquatalia官网:意大利著名鞋履品牌
2019/09/26 全球购物
用C#语言写出在本地创建一个UDP接收端口的具体过程
2016/02/22 面试题
日语求职信范文
2013/12/17 职场文书
护理不良事件检讨书
2014/02/06 职场文书
护理中职生求职信范文
2014/02/24 职场文书
汽车技术服务与贸易专业求职信
2014/07/20 职场文书
离婚财产分配协议书
2014/10/21 职场文书
人力资源部工作计划
2019/05/14 职场文书