零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版


Posted in Python onNovember 06, 2014

百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件。

项目内容:

用Python写的百度贴吧的网络爬虫。

使用方法:

新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行。

程序功能:

将贴吧中楼主发布的内容打包txt存储到本地。

原理解释:

首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了:
http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1
可以看出来,see_lz=1是只看楼主,pn=1是对应的页码,记住这一点为以后的编写做准备。
这就是我们需要利用的url。
接下来就是查看页面源码。
首先把题目抠出来存储文件的时候会用到。
可以看到百度使用gbk编码,标题使用h1标记:

<h1 class="core_title_txt" title="【原创】时尚首席(关于时尚,名利,事业,爱情,励志)">【原创】时尚首席(关于时尚,名利,事业,爱情,励志)</h1> 

同样,正文部分用div和class综合标记,接下来要做的只是用正则表达式来匹配即可。
运行截图:

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

生成的txt文件:

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

# -*- coding: utf-8 -*-  

#---------------------------------------  

#   程序:百度贴吧爬虫  

#   版本:0.5  

#   作者:why  

#   日期:2013-05-16  

#   语言:Python 2.7  

#   操作:输入网址后自动只看楼主并保存到本地文件  

#   功能:将楼主发布的内容打包txt存储到本地。  

#---------------------------------------  

   

import string  

import urllib2  

import re  

  

#----------- 处理页面上的各种标签 -----------  

class HTML_Tool:  

    # 用非 贪婪模式 匹配 \t 或者 \n 或者 空格 或者 超链接 或者 图片  

    BgnCharToNoneRex = re.compile("(\t|\n| |<a.*?>|<img.*?>)")  

      

    # 用非 贪婪模式 匹配 任意<>标签  

    EndCharToNoneRex = re.compile("<.*?>")  

  

    # 用非 贪婪模式 匹配 任意<p>标签  

    BgnPartRex = re.compile("<p.*?>")  

    CharToNewLineRex = re.compile("(<br/>|</p>|<tr>|<div>|</div>)")  

    CharToNextTabRex = re.compile("<td>")  

  

    # 将一些html的符号实体转变为原始符号  

    replaceTab = [("<","<"),(">",">"),("&","&"),("&","\""),(" "," ")]  

      

    def Replace_Char(self,x):  

        x = self.BgnCharToNoneRex.sub("",x)  

        x = self.BgnPartRex.sub("\n    ",x)  

        x = self.CharToNewLineRex.sub("\n",x)  

        x = self.CharToNextTabRex.sub("\t",x)  

        x = self.EndCharToNoneRex.sub("",x)  

  

        for t in self.replaceTab:    

            x = x.replace(t[0],t[1])    

        return x    

      

class Baidu_Spider:  

    # 申明相关的属性  

    def __init__(self,url):    

        self.myUrl = url + '?see_lz=1'  

        self.datas = []  

        self.myTool = HTML_Tool()  

        print u'已经启动百度贴吧爬虫,咔嚓咔嚓'  

    

    # 初始化加载页面并将其转码储存  

    def baidu_tieba(self):  

        # 读取页面的原始信息并将其从gbk转码  

        myPage = urllib2.urlopen(self.myUrl).read().decode("gbk")  

        # 计算楼主发布内容一共有多少页  

        endPage = self.page_counter(myPage)  

        # 获取该帖的标题  

        title = self.find_title(myPage)  

        print u'文章名称:' + title  

        # 获取最终的数据  

        self.save_data(self.myUrl,title,endPage)  

  

    #用来计算一共有多少页  

    def page_counter(self,myPage):  

        # 匹配 "共有<span class="red">12</span>页" 来获取一共有多少页  

        myMatch = re.search(r'class="red">(\d+?)</span>', myPage, re.S)  

        if myMatch:    

            endPage = int(myMatch.group(1))  

            print u'爬虫报告:发现楼主共有%d页的原创内容' % endPage  

        else:  

            endPage = 0  

            print u'爬虫报告:无法计算楼主发布内容有多少页!'  

        return endPage  

  

    # 用来寻找该帖的标题  

    def find_title(self,myPage):  

        # 匹配 <h1 class="core_title_txt" title="">xxxxxxxxxx</h1> 找出标题  

        myMatch = re.search(r'<h1.*?>(.*?)</h1>', myPage, re.S)  

        title = u'暂无标题'  

        if myMatch:  

            title  = myMatch.group(1)  

        else:  

            print u'爬虫报告:无法加载文章标题!'  

        # 文件名不能包含以下字符: \ / : * ? " < > |  

        title = title.replace('\\','').replace('/','').replace(':','').replace('*','').replace('?','').replace('"','').replace('>','').replace('<','').replace('|','')  

        return title  

  

    # 用来存储楼主发布的内容  

    def save_data(self,url,title,endPage):  

        # 加载页面数据到数组中  

        self.get_data(url,endPage)  

        # 打开本地文件  

        f = open(title+'.txt','w+')  

        f.writelines(self.datas)  

        f.close()  

        print u'爬虫报告:文件已下载到本地并打包成txt文件'  

        print u'请按任意键退出...'  

        raw_input();  

  

    # 获取页面源码并将其存储到数组中  

    def get_data(self,url,endPage):  

        url = url + '&pn='  

        for i in range(1,endPage+1):  

            print u'爬虫报告:爬虫%d号正在加载中...' % i  

            myPage = urllib2.urlopen(url + str(i)).read()  

            # 将myPage中的html代码处理并存储到datas里面  

            self.deal_data(myPage.decode('gbk'))  

              

    # 将内容从页面代码中抠出来  

    def deal_data(self,myPage):  

        myItems = re.findall('id="post_content.*?>(.*?)</div>',myPage,re.S)  

        for item in myItems:  

            data = self.myTool.Replace_Char(item.replace("\n","").encode('gbk'))  

            self.datas.append(data+'\n') 
#-------- 程序入口处 ------------------  

print u"""#--------------------------------------- 

#   程序:百度贴吧爬虫 

#   版本:0.5 

#   作者:why 

#   日期:2013-05-16 

#   语言:Python 2.7 

#   操作:输入网址后自动只看楼主并保存到本地文件 

#   功能:将楼主发布的内容打包txt存储到本地。 

#--------------------------------------- 

"""  

# 以某小说贴吧为例子  

# bdurl = 'http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1'  

  

print u'请输入贴吧的地址最后的数字串:'  

bdurl = 'http://tieba.baidu.com/p/' + str(raw_input(u'http://tieba.baidu.com/p/'))   

  

#调用  

mySpider = Baidu_Spider(bdurl)  

mySpider.baidu_tieba() 

以上就是改进之后的抓取百度贴吧的全部代码了,非常的简单实用吧,希望能对大家有所帮助

Python 相关文章推荐
详解在Python程序中自定义异常的方法
Oct 16 Python
python制作爬虫爬取京东商品评论教程
Dec 16 Python
Python计时相关操作详解【time,datetime】
May 26 Python
详解Python list 与 NumPy.ndarry 切片之间的对比
Jul 24 Python
python3.6.3+opencv3.3.0实现动态人脸捕获
May 25 Python
使用Scrapy爬取动态数据
Oct 21 Python
Python对象转换为json的方法步骤
Apr 25 Python
python Tcp协议发送和接收信息的例子
Jul 22 Python
对python中的os.getpid()和os.fork()函数详解
Aug 08 Python
使用BeautifulSoup4解析XML的方法小结
Dec 07 Python
Python的Tqdm模块实现进度条配置
Feb 24 Python
python munch库的使用解析
May 25 Python
零基础写python爬虫之抓取糗事百科代码分享
Nov 06 #Python
零基础写python爬虫之神器正则表达式
Nov 06 #Python
零基础写python爬虫之抓取百度贴吧代码分享
Nov 06 #Python
零基础写python爬虫之urllib2使用指南
Nov 05 #Python
零基础写python爬虫之urllib2中的两个重要概念:Openers和Handlers
Nov 05 #Python
零基础写python爬虫之HTTP异常处理
Nov 05 #Python
零基础写python爬虫之使用urllib2组件抓取网页内容
Nov 04 #Python
You might like
编写PHP脚本清除WordPress头部冗余代码的方法讲解
2016/03/01 PHP
TP5框架实现自定义分页样式的方法示例
2020/04/05 PHP
jquery tools 系列 scrollable学习
2009/09/06 Javascript
写js时遇到的一些小问题
2010/12/06 Javascript
window.location不跳转的问题解决方法
2014/04/17 Javascript
Javascript表单验证要注意的事项
2014/09/29 Javascript
jquery中push()的用法(数组添加元素)
2014/11/25 Javascript
JQuery使用$.ajax和checkbox实现下次不在通知功能
2015/04/16 Javascript
jQuery-1.9.1源码分析系列(十)事件系统之事件体系结构
2015/11/19 Javascript
JS中判断字符串中出现次数最多的字符及出现的次数的简单实例
2016/06/03 Javascript
Angular.JS判断复选框checkbox是否选中并实时显示
2016/11/30 Javascript
Vue+jquery实现表格指定列的文字收缩的示例代码
2018/01/09 jQuery
vue-cli2.0转3.0之项目搭建的详细步骤
2018/12/11 Javascript
Vue内部渲染视图的方法
2019/09/02 Javascript
JavaScript实现拖拽盒子效果
2020/02/06 Javascript
[42:22]DOTA2上海特级锦标赛C组小组赛#1 OG VS Archon第一局
2016/02/27 DOTA
使用Python操作Elasticsearch数据索引的教程
2015/04/08 Python
Python编程判断这天是这一年第几天的方法示例
2017/04/18 Python
Python语言的变量认识及操作方法
2018/02/11 Python
python3调用百度翻译API实现实时翻译
2018/08/16 Python
pyinstaller参数介绍以及总结详解
2019/07/12 Python
Python利用神经网络解决非线性回归问题实例详解
2019/07/19 Python
python matplotlib绘制三维图的示例
2020/09/24 Python
L*SPACE官网:比基尼、泳装和度假服装
2019/03/18 全球购物
德国受欢迎的旅游和休闲网站:lastminute.de
2019/09/23 全球购物
英国名牌男装店:Standout
2021/02/17 全球购物
android面试问题与答案
2016/12/27 面试题
介绍一下write命令
2014/08/10 面试题
Linux开机引导的步骤是什么
2015/10/19 面试题
结婚典礼证婚词
2014/01/08 职场文书
幼儿园保育员岗位职责
2014/04/13 职场文书
云南省召开党的群众路线教育实践活动总结会议新闻稿
2014/10/21 职场文书
老公婚前保证书
2015/02/28 职场文书
2015年度个人思想工作总结
2015/04/08 职场文书
《天使的翅膀》读后感3篇
2019/12/20 职场文书
Python 线程池模块之多线程操作代码
2021/05/20 Python