用Python编写简单的微博爬虫


Posted in Python onMarch 04, 2016

先说点题外话,我一开始想使用Sina Weibo API来获取微博内容,但后来发现新浪微博的API限制实在太多,大家感受一下:

用Python编写简单的微博爬虫

只能获取当前授权的用户(就是自己),而且只能返回最新的5条,WTF!
所以果断放弃掉这条路,改为『生爬』,因为PC端的微博是Ajax的动态加载,爬取起来有些困难,我果断知难而退,改为对移动端的微博进行爬取,因为移动端的微博可以通过分页爬取的方式来一次性爬取所有微博内容,这样工作就简化了不少。

最后实现的功能:

1、输入要爬取的微博用户的user_id,获得该用户的所有微博
2、文字内容保存到以%user_id命名文本文件中,所有高清原图保存在weibo_image文件夹中
具体操作:
首先我们要获得自己的cookie,这里只说chrome的获取方法。

1、用chrome打开新浪微博移动端
2、option+command+i调出开发者工具
3、点开Network,将Preserve log选项选中
4、输入账号密码,登录新浪微博

用Python编写简单的微博爬虫

5、找到m.weibo.cn->Headers->Cookie,把cookie复制到代码中的#your cookie处

用Python编写简单的微博爬虫

然后再获取你想爬取的用户的user_id,这个我不用多说啥了吧,点开用户主页,地址栏里面那个号码就是user_id

用Python编写简单的微博爬虫

将python代码保存到weibo_spider.py文件中
定位到当前目录下后,命令行执行python weibo_spider.py user_id
当然如果你忘记在后面加user_id,执行的时候命令行也会提示你输入

最后执行结束

用Python编写简单的微博爬虫

用Python编写简单的微博爬虫

用Python编写简单的微博爬虫

小问题:在我的测试中,有的时候会出现图片下载失败的问题,具体原因还不是很清楚,可能是网速问题,因为我宿舍的网速实在太不稳定了,当然也有可能是别的问题,所以在程序根目录下面,我还生成了一个userid_imageurls的文本文件,里面存储了爬取的所有图片的下载链接,如果出现大片的图片下载失败,可以将该链接群一股脑导进迅雷等下载工具进行下载。

另外,我的系统是OSX EI Capitan10.11.2,Python的版本是2.7,依赖库用sudo pip install XXXX就可以安装,具体配置问题可以自行stackoverflow,这里就不展开讲了。

下面我就给出实现代码

#-*-coding:utf8-*-

import re
import string
import sys
import os
import urllib
import urllib2
from bs4 import BeautifulSoup
import requests
from lxml import etree

reload(sys) 
sys.setdefaultencoding('utf-8')
if(len(sys.argv)>=2):
  user_id = (int)(sys.argv[1])
else:
  user_id = (int)(raw_input(u"请输入user_id: "))

cookie = {"Cookie": "#your cookie"}
url = 'http://weibo.cn/u/%d?filter=1&page=1'%user_id

html = requests.get(url, cookies = cookie).content
selector = etree.HTML(html)
pageNum = (int)(selector.xpath('//input[@name="mp"]')[0].attrib['value'])

result = "" 
urllist_set = set()
word_count = 1
image_count = 1

print u'爬虫准备就绪...'

for page in range(1,pageNum+1):

 #获取lxml页面
 url = 'http://weibo.cn/u/%d?filter=1&page=%d'%(user_id,page) 
 lxml = requests.get(url, cookies = cookie).content

 #文字爬取
 selector = etree.HTML(lxml)
 content = selector.xpath('//span[@class="ctt"]')
 for each in content:
  text = each.xpath('string(.)')
  if word_count>=4:
   text = "%d :"%(word_count-3) +text+"\n\n"
  else :
   text = text+"\n\n"
  result = result + text
  word_count += 1

 #图片爬取
 soup = BeautifulSoup(lxml, "lxml")
 urllist = soup.find_all('a',href=re.compile(r'^http://weibo.cn/mblog/oripic',re.I))
 first = 0
 for imgurl in urllist:
  urllist_set.add(requests.get(imgurl['href'], cookies = cookie).url)
  image_count +=1

fo = open("/Users/Personals/%s"%user_id, "wb")
fo.write(result)
word_path=os.getcwd()+'/%d'%user_id
print u'文字微博爬取完毕'

link = ""
fo2 = open("/Users/Personals/%s_imageurls"%user_id, "wb")
for eachlink in urllist_set:
 link = link + eachlink +"\n"
fo2.write(link)
print u'图片链接爬取完毕'


if not urllist_set:
 print u'该页面中不存在图片'
else:
 #下载图片,保存在当前目录的pythonimg文件夹下
 image_path=os.getcwd()+'/weibo_image'
 if os.path.exists(image_path) is False:
  os.mkdir(image_path)
 x=1
 for imgurl in urllist_set:
  temp= image_path + '/%s.jpg' % x
  print u'正在下载第%s张图片' % x
  try:
   urllib.urlretrieve(urllib2.urlopen(imgurl).geturl(),temp)
  except:
   print u"该图片下载失败:%s"%imgurl
  x+=1

print u'原创微博爬取完毕,共%d条,保存路径%s'%(word_count-4,word_path)
print u'微博图片爬取完毕,共%d张,保存路径%s'%(image_count-1,image_path)

一个简单的微博爬虫就完成了,希望对大家的学习有所帮助。

Python 相关文章推荐
python函数返回多个值的示例方法
Dec 04 Python
详解Python的Django框架中Manager方法的使用
Jul 21 Python
Python利用前序和中序遍历结果重建二叉树的方法
Apr 27 Python
详解django2中关于时间处理策略
Mar 06 Python
Python单元和文档测试实例详解
Apr 11 Python
浅谈Python_Openpyxl使用(最全总结)
Sep 05 Python
Python实现把多维数组展开成DataFrame
Nov 30 Python
python解析xml文件方式(解析、更新、写入)
Mar 05 Python
Python中使用socks5设置全局代理的方法示例
Apr 15 Python
Selenium之模拟登录铁路12306的示例代码
Jul 31 Python
pycharm 关闭search everywhere的解决操作
Jan 15 Python
python中pd.cut()与pd.qcut()的对比及示例
Jun 16 Python
python相似模块用例
Mar 04 #Python
Python程序中用csv模块来操作csv文件的基本使用教程
Mar 03 #Python
举例简单讲解Python中的数据存储模块shelve的用法
Mar 03 #Python
Python中的数据对象持久化存储模块pickle的使用示例
Mar 03 #Python
Python和Perl绘制中国北京跑步地图的方法
Mar 03 #Python
python套接字流重定向实例汇总
Mar 03 #Python
Python设计模式中单例模式的实现及在Tornado中的应用
Mar 02 #Python
You might like
怎样辨别一杯好咖啡
2021/03/03 新手入门
php下关于中英数字混排的字符串分割问题
2010/04/06 PHP
PHP获取一个字符串中间一部分字符的方法
2014/08/19 PHP
PHP统计目录中文件以及目录中目录大小的方法
2016/01/09 PHP
php爬取天猫和淘宝商品数据
2018/02/23 PHP
DOM相关内容速查手册
2007/02/07 Javascript
javascript判断iphone/android手机横竖屏模式的函数
2011/12/20 Javascript
jquery实现图片灯箱明暗的遮罩效果
2013/11/15 Javascript
js转html实体的方法
2016/09/27 Javascript
jQuery插件ajaxFileUpload使用实例解析
2016/10/19 Javascript
Angular2入门教程之模块和组件详解
2017/05/28 Javascript
微信小程序实现横向增长表格的方法
2018/07/24 Javascript
使用vue完成微信公众号网页小记(推荐)
2019/04/28 Javascript
ajax跨域访问遇到的问题及解决方案
2019/05/23 Javascript
vue等两个接口都返回结果再执行下一步的实例
2020/09/08 Javascript
[12:29]《一刀刀一天》之DOTA全时刻19:蝙蝠骑士田伯光再度不举
2014/06/10 DOTA
Python使用multiprocessing创建进程的方法
2015/06/04 Python
Python探索之自定义实现线程池
2017/10/27 Python
python cs架构实现简单文件传输
2020/03/20 Python
python中的不可变数据类型与可变数据类型详解
2018/09/16 Python
Python实现手机号自动判断男女性别(实例解析)
2019/12/22 Python
python图片剪裁代码(图片按四个点坐标剪裁)
2020/03/10 Python
浅析NumPy 切片和索引
2020/09/02 Python
python绘图模块之利用turtle画图
2021/02/12 Python
详解CSS3 rem(设置字体大小) 教程
2017/11/21 HTML / CSS
canvas实现滑动验证的实现示例
2020/08/11 HTML / CSS
护士个人自我鉴定
2014/03/24 职场文书
安全生产大检查方案
2014/05/07 职场文书
服装仓管员岗位职责
2014/06/17 职场文书
学校个人对照检查材料
2014/08/26 职场文书
保安2014年终工作总结
2014/12/06 职场文书
民主生活会主持词
2015/07/01 职场文书
2015暑期爱心支教策划书
2015/07/14 职场文书
使用pytorch实现线性回归
2021/04/11 Python
MySQL快速插入一亿测试数据
2021/06/23 MySQL
十大最强妖精系宝可梦,哲尔尼亚斯实力最强,第五被称为大力士
2022/03/18 日漫