用Python编写简单的微博爬虫


Posted in Python onMarch 04, 2016

先说点题外话,我一开始想使用Sina Weibo API来获取微博内容,但后来发现新浪微博的API限制实在太多,大家感受一下:

用Python编写简单的微博爬虫

只能获取当前授权的用户(就是自己),而且只能返回最新的5条,WTF!
所以果断放弃掉这条路,改为『生爬』,因为PC端的微博是Ajax的动态加载,爬取起来有些困难,我果断知难而退,改为对移动端的微博进行爬取,因为移动端的微博可以通过分页爬取的方式来一次性爬取所有微博内容,这样工作就简化了不少。

最后实现的功能:

1、输入要爬取的微博用户的user_id,获得该用户的所有微博
2、文字内容保存到以%user_id命名文本文件中,所有高清原图保存在weibo_image文件夹中
具体操作:
首先我们要获得自己的cookie,这里只说chrome的获取方法。

1、用chrome打开新浪微博移动端
2、option+command+i调出开发者工具
3、点开Network,将Preserve log选项选中
4、输入账号密码,登录新浪微博

用Python编写简单的微博爬虫

5、找到m.weibo.cn->Headers->Cookie,把cookie复制到代码中的#your cookie处

用Python编写简单的微博爬虫

然后再获取你想爬取的用户的user_id,这个我不用多说啥了吧,点开用户主页,地址栏里面那个号码就是user_id

用Python编写简单的微博爬虫

将python代码保存到weibo_spider.py文件中
定位到当前目录下后,命令行执行python weibo_spider.py user_id
当然如果你忘记在后面加user_id,执行的时候命令行也会提示你输入

最后执行结束

用Python编写简单的微博爬虫

用Python编写简单的微博爬虫

用Python编写简单的微博爬虫

小问题:在我的测试中,有的时候会出现图片下载失败的问题,具体原因还不是很清楚,可能是网速问题,因为我宿舍的网速实在太不稳定了,当然也有可能是别的问题,所以在程序根目录下面,我还生成了一个userid_imageurls的文本文件,里面存储了爬取的所有图片的下载链接,如果出现大片的图片下载失败,可以将该链接群一股脑导进迅雷等下载工具进行下载。

另外,我的系统是OSX EI Capitan10.11.2,Python的版本是2.7,依赖库用sudo pip install XXXX就可以安装,具体配置问题可以自行stackoverflow,这里就不展开讲了。

下面我就给出实现代码

#-*-coding:utf8-*-

import re
import string
import sys
import os
import urllib
import urllib2
from bs4 import BeautifulSoup
import requests
from lxml import etree

reload(sys) 
sys.setdefaultencoding('utf-8')
if(len(sys.argv)>=2):
  user_id = (int)(sys.argv[1])
else:
  user_id = (int)(raw_input(u"请输入user_id: "))

cookie = {"Cookie": "#your cookie"}
url = 'http://weibo.cn/u/%d?filter=1&page=1'%user_id

html = requests.get(url, cookies = cookie).content
selector = etree.HTML(html)
pageNum = (int)(selector.xpath('//input[@name="mp"]')[0].attrib['value'])

result = "" 
urllist_set = set()
word_count = 1
image_count = 1

print u'爬虫准备就绪...'

for page in range(1,pageNum+1):

 #获取lxml页面
 url = 'http://weibo.cn/u/%d?filter=1&page=%d'%(user_id,page) 
 lxml = requests.get(url, cookies = cookie).content

 #文字爬取
 selector = etree.HTML(lxml)
 content = selector.xpath('//span[@class="ctt"]')
 for each in content:
  text = each.xpath('string(.)')
  if word_count>=4:
   text = "%d :"%(word_count-3) +text+"\n\n"
  else :
   text = text+"\n\n"
  result = result + text
  word_count += 1

 #图片爬取
 soup = BeautifulSoup(lxml, "lxml")
 urllist = soup.find_all('a',href=re.compile(r'^http://weibo.cn/mblog/oripic',re.I))
 first = 0
 for imgurl in urllist:
  urllist_set.add(requests.get(imgurl['href'], cookies = cookie).url)
  image_count +=1

fo = open("/Users/Personals/%s"%user_id, "wb")
fo.write(result)
word_path=os.getcwd()+'/%d'%user_id
print u'文字微博爬取完毕'

link = ""
fo2 = open("/Users/Personals/%s_imageurls"%user_id, "wb")
for eachlink in urllist_set:
 link = link + eachlink +"\n"
fo2.write(link)
print u'图片链接爬取完毕'


if not urllist_set:
 print u'该页面中不存在图片'
else:
 #下载图片,保存在当前目录的pythonimg文件夹下
 image_path=os.getcwd()+'/weibo_image'
 if os.path.exists(image_path) is False:
  os.mkdir(image_path)
 x=1
 for imgurl in urllist_set:
  temp= image_path + '/%s.jpg' % x
  print u'正在下载第%s张图片' % x
  try:
   urllib.urlretrieve(urllib2.urlopen(imgurl).geturl(),temp)
  except:
   print u"该图片下载失败:%s"%imgurl
  x+=1

print u'原创微博爬取完毕,共%d条,保存路径%s'%(word_count-4,word_path)
print u'微博图片爬取完毕,共%d张,保存路径%s'%(image_count-1,image_path)

一个简单的微博爬虫就完成了,希望对大家的学习有所帮助。

Python 相关文章推荐
使用python删除nginx缓存文件示例(python文件操作)
Mar 26 Python
简单介绍Python中的decode()方法的使用
May 18 Python
浅谈python socket函数中,send与sendall的区别与使用方法
May 09 Python
解决csv.writer写入文件有多余的空行问题
Jul 06 Python
Python调用C++,通过Pybind11制作Python接口
Oct 16 Python
python json.loads兼容单引号数据的方法
Dec 19 Python
pandas取出重复数据的方法
Jul 04 Python
Python numpy数组转置与轴变换
Nov 15 Python
Python如何在DataFrame增加数值
Feb 14 Python
python GUI库图形界面开发之PyQt5中QMainWindow, QWidget以及QDialog的区别和选择
Feb 26 Python
python中slice参数过长的处理方法及实例
Dec 15 Python
Python实现Hash算法
Mar 18 Python
python相似模块用例
Mar 04 #Python
Python程序中用csv模块来操作csv文件的基本使用教程
Mar 03 #Python
举例简单讲解Python中的数据存储模块shelve的用法
Mar 03 #Python
Python中的数据对象持久化存储模块pickle的使用示例
Mar 03 #Python
Python和Perl绘制中国北京跑步地图的方法
Mar 03 #Python
python套接字流重定向实例汇总
Mar 03 #Python
Python设计模式中单例模式的实现及在Tornado中的应用
Mar 02 #Python
You might like
php实现根据url自动生成缩略图的方法
2014/09/23 PHP
php数组分页实现方法
2016/04/30 PHP
PHPExcel简单读取excel文件示例
2016/05/26 PHP
LaravelS通过Swoole加速Laravel/Lumen详解
2018/03/02 PHP
PHP排序二叉树基本功能实现方法示例
2018/05/26 PHP
PHP封装的简单连接MongoDB类示例
2019/02/13 PHP
php数组遍历类与用法示例
2019/05/24 PHP
JavaScript 学习笔记(七)字符串的连接
2009/12/31 Javascript
页面装载js及性能分析方法介绍
2014/03/21 Javascript
深入理解JavaScript系列(47):对象创建模式(上篇)
2015/03/04 Javascript
12条写出高质量JS代码的方法
2018/01/07 Javascript
vue项目打包部署_nginx代理访问方法详解
2018/09/20 Javascript
vue自动路由-单页面项目(非build时构建)
2019/04/30 Javascript
vue中使用vee-validator完成表单校验方案
2019/11/01 Javascript
[45:25]OG vs EG 2019国际邀请赛淘汰赛 胜者组 BO3 第一场 8.22
2019/09/05 DOTA
Python生成随机验证码的两种方法
2015/12/22 Python
Python中datetime模块参考手册
2017/01/13 Python
利用python解决mysql视图导入导出依赖的问题
2017/12/17 Python
Python实现GUI学生信息管理系统
2020/04/05 Python
python opencv设置摄像头分辨率以及各个参数的方法
2018/04/02 Python
WIn10+Anaconda环境下安装PyTorch(避坑指南)
2019/01/30 Python
Python3.5运算符操作实例详解
2019/04/25 Python
解决Python设置函数调用超时,进程卡住的问题
2019/08/08 Python
python+opencv实现移动侦测(帧差法)
2020/03/20 Python
win10从零安装配置pytorch全过程图文详解
2020/05/08 Python
通信工程专业个人找工作求职信范文
2013/09/21 职场文书
药品质量检测应届生求职信
2013/11/14 职场文书
服装厂厂长岗位职责
2013/12/27 职场文书
中学家长会邀请函
2014/02/03 职场文书
2014年学习雷锋活动总结
2014/03/01 职场文书
2014年公司植树节活动方案
2014/03/04 职场文书
2015年班干部工作总结
2015/04/29 职场文书
刑事撤诉申请书
2015/05/18 职场文书
2016年春季趣味运动会开幕词
2016/03/04 职场文书
Python实现简单得递归下降Parser
2022/05/02 Python
使用HBuilder制作一个简单的HTML5网页
2022/07/07 HTML / CSS