零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版


Posted in Python onNovember 06, 2014

百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件。

项目内容:

用Python写的百度贴吧的网络爬虫。

使用方法:

新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行。

程序功能:

将贴吧中楼主发布的内容打包txt存储到本地。

原理解释:

首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了:
http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1
可以看出来,see_lz=1是只看楼主,pn=1是对应的页码,记住这一点为以后的编写做准备。
这就是我们需要利用的url。
接下来就是查看页面源码。
首先把题目抠出来存储文件的时候会用到。
可以看到百度使用gbk编码,标题使用h1标记:

<h1 class="core_title_txt" title="【原创】时尚首席(关于时尚,名利,事业,爱情,励志)">【原创】时尚首席(关于时尚,名利,事业,爱情,励志)</h1> 

同样,正文部分用div和class综合标记,接下来要做的只是用正则表达式来匹配即可。
运行截图:

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

生成的txt文件:

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

# -*- coding: utf-8 -*-  

#---------------------------------------  

#   程序:百度贴吧爬虫  

#   版本:0.5  

#   作者:why  

#   日期:2013-05-16  

#   语言:Python 2.7  

#   操作:输入网址后自动只看楼主并保存到本地文件  

#   功能:将楼主发布的内容打包txt存储到本地。  

#---------------------------------------  

   

import string  

import urllib2  

import re  

  

#----------- 处理页面上的各种标签 -----------  

class HTML_Tool:  

    # 用非 贪婪模式 匹配 \t 或者 \n 或者 空格 或者 超链接 或者 图片  

    BgnCharToNoneRex = re.compile("(\t|\n| |<a.*?>|<img.*?>)")  

      

    # 用非 贪婪模式 匹配 任意<>标签  

    EndCharToNoneRex = re.compile("<.*?>")  

  

    # 用非 贪婪模式 匹配 任意<p>标签  

    BgnPartRex = re.compile("<p.*?>")  

    CharToNewLineRex = re.compile("(<br/>|</p>|<tr>|<div>|</div>)")  

    CharToNextTabRex = re.compile("<td>")  

  

    # 将一些html的符号实体转变为原始符号  

    replaceTab = [("<","<"),(">",">"),("&","&"),("&","\""),(" "," ")]  

      

    def Replace_Char(self,x):  

        x = self.BgnCharToNoneRex.sub("",x)  

        x = self.BgnPartRex.sub("\n    ",x)  

        x = self.CharToNewLineRex.sub("\n",x)  

        x = self.CharToNextTabRex.sub("\t",x)  

        x = self.EndCharToNoneRex.sub("",x)  

  

        for t in self.replaceTab:    

            x = x.replace(t[0],t[1])    

        return x    

      

class Baidu_Spider:  

    # 申明相关的属性  

    def __init__(self,url):    

        self.myUrl = url + '?see_lz=1'  

        self.datas = []  

        self.myTool = HTML_Tool()  

        print u'已经启动百度贴吧爬虫,咔嚓咔嚓'  

    

    # 初始化加载页面并将其转码储存  

    def baidu_tieba(self):  

        # 读取页面的原始信息并将其从gbk转码  

        myPage = urllib2.urlopen(self.myUrl).read().decode("gbk")  

        # 计算楼主发布内容一共有多少页  

        endPage = self.page_counter(myPage)  

        # 获取该帖的标题  

        title = self.find_title(myPage)  

        print u'文章名称:' + title  

        # 获取最终的数据  

        self.save_data(self.myUrl,title,endPage)  

  

    #用来计算一共有多少页  

    def page_counter(self,myPage):  

        # 匹配 "共有<span class="red">12</span>页" 来获取一共有多少页  

        myMatch = re.search(r'class="red">(\d+?)</span>', myPage, re.S)  

        if myMatch:    

            endPage = int(myMatch.group(1))  

            print u'爬虫报告:发现楼主共有%d页的原创内容' % endPage  

        else:  

            endPage = 0  

            print u'爬虫报告:无法计算楼主发布内容有多少页!'  

        return endPage  

  

    # 用来寻找该帖的标题  

    def find_title(self,myPage):  

        # 匹配 <h1 class="core_title_txt" title="">xxxxxxxxxx</h1> 找出标题  

        myMatch = re.search(r'<h1.*?>(.*?)</h1>', myPage, re.S)  

        title = u'暂无标题'  

        if myMatch:  

            title  = myMatch.group(1)  

        else:  

            print u'爬虫报告:无法加载文章标题!'  

        # 文件名不能包含以下字符: \ / : * ? " < > |  

        title = title.replace('\\','').replace('/','').replace(':','').replace('*','').replace('?','').replace('"','').replace('>','').replace('<','').replace('|','')  

        return title  

  

    # 用来存储楼主发布的内容  

    def save_data(self,url,title,endPage):  

        # 加载页面数据到数组中  

        self.get_data(url,endPage)  

        # 打开本地文件  

        f = open(title+'.txt','w+')  

        f.writelines(self.datas)  

        f.close()  

        print u'爬虫报告:文件已下载到本地并打包成txt文件'  

        print u'请按任意键退出...'  

        raw_input();  

  

    # 获取页面源码并将其存储到数组中  

    def get_data(self,url,endPage):  

        url = url + '&pn='  

        for i in range(1,endPage+1):  

            print u'爬虫报告:爬虫%d号正在加载中...' % i  

            myPage = urllib2.urlopen(url + str(i)).read()  

            # 将myPage中的html代码处理并存储到datas里面  

            self.deal_data(myPage.decode('gbk'))  

              

    # 将内容从页面代码中抠出来  

    def deal_data(self,myPage):  

        myItems = re.findall('id="post_content.*?>(.*?)</div>',myPage,re.S)  

        for item in myItems:  

            data = self.myTool.Replace_Char(item.replace("\n","").encode('gbk'))  

            self.datas.append(data+'\n') 
#-------- 程序入口处 ------------------  

print u"""#--------------------------------------- 

#   程序:百度贴吧爬虫 

#   版本:0.5 

#   作者:why 

#   日期:2013-05-16 

#   语言:Python 2.7 

#   操作:输入网址后自动只看楼主并保存到本地文件 

#   功能:将楼主发布的内容打包txt存储到本地。 

#--------------------------------------- 

"""  

# 以某小说贴吧为例子  

# bdurl = 'http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1'  

  

print u'请输入贴吧的地址最后的数字串:'  

bdurl = 'http://tieba.baidu.com/p/' + str(raw_input(u'http://tieba.baidu.com/p/'))   

  

#调用  

mySpider = Baidu_Spider(bdurl)  

mySpider.baidu_tieba() 

以上就是改进之后的抓取百度贴吧的全部代码了,非常的简单实用吧,希望能对大家有所帮助

Python 相关文章推荐
在Python的列表中利用remove()方法删除元素的教程
May 21 Python
python 获取网页编码方式实现代码
Mar 11 Python
详解python使用Nginx和uWSGI来运行Python应用
Jan 09 Python
Python使用matplotlib绘制三维参数曲线操作示例
Sep 10 Python
Pandas实现DataFrame按行求百分数(比例数)
Dec 27 Python
Python vtk读取并显示dicom文件示例
Jan 13 Python
Django框架静态文件处理、中间件、上传文件操作实例详解
Feb 29 Python
PyCharm MySQL可视化Database配置过程图解
Jun 09 Python
OpenCV4.1.0+VS2017环境配置的方法步骤
Jul 09 Python
解决Python3.8运行tornado项目报NotImplementedError错误
Sep 02 Python
python sleep和wait对比总结
Feb 03 Python
用Python将库打包发布到pypi
Apr 13 Python
零基础写python爬虫之抓取糗事百科代码分享
Nov 06 #Python
零基础写python爬虫之神器正则表达式
Nov 06 #Python
零基础写python爬虫之抓取百度贴吧代码分享
Nov 06 #Python
零基础写python爬虫之urllib2使用指南
Nov 05 #Python
零基础写python爬虫之urllib2中的两个重要概念:Openers和Handlers
Nov 05 #Python
零基础写python爬虫之HTTP异常处理
Nov 05 #Python
零基础写python爬虫之使用urllib2组件抓取网页内容
Nov 04 #Python
You might like
WINXP下apache+php4+mysql
2006/11/25 PHP
一个简单的php实现的MySQL数据浏览器
2007/03/11 PHP
PHP集成FCK的函数代码
2008/09/27 PHP
php中存储用户ID和密码到mysql数据库的方法
2013/02/06 PHP
PHP编程风格规范分享
2014/01/15 PHP
PHP限制HTML内容中图片必须是本站的方法
2015/06/16 PHP
php实现三级级联下拉框
2016/04/17 PHP
PHP编写登录验证码功能 附调用方法
2016/05/19 PHP
thinkphp3.2中实现phpexcel导出带生成图片示例
2017/02/14 PHP
PHP实现将标点符号正则替换为空格的方法
2017/08/09 PHP
PHP中__set()实例用法和基础讲解
2019/07/23 PHP
JavaScript中的对象化编程
2008/01/16 Javascript
前后台交互过程中json格式如何解析以及如何生成
2012/12/26 Javascript
js获取多个tagname的节点数组
2013/09/22 Javascript
用Node.js通过sitemap.xml批量抓取美女图片
2015/05/28 Javascript
js实现文本框只允许输入数字并限制数字大小的方法
2015/08/19 Javascript
学好js,这些js函数概念一定要知道【推荐】
2017/01/19 Javascript
详解vue项目优化之按需加载组件-使用webpack require.ensure
2017/06/13 Javascript
使用cookie绕过验证码登录的实现代码
2017/10/12 Javascript
JavaScript使用prototype原型实现的封装继承多态示例
2018/08/31 Javascript
Element-ui中元素滚动时el-option超出元素区域的问题
2019/05/30 Javascript
layui富文本编辑器前端无法取值的解决方法
2019/09/18 Javascript
vue+Element-ui实现登录注册表单
2020/11/17 Javascript
python mysqldb连接数据库
2009/03/16 Python
使用Python从有道词典网页获取单词翻译
2016/07/03 Python
Python使用numpy产生正态分布随机数的向量或矩阵操作示例
2018/08/22 Python
Python寻找两个有序数组的中位数实例详解
2018/12/05 Python
Python面向对象之类的内置attr属性示例
2018/12/14 Python
PyTorch里面的torch.nn.Parameter()详解
2020/01/03 Python
Python collections.deque双边队列原理详解
2020/10/05 Python
5 个强大的HTML5 API 函数推荐
2014/11/19 HTML / CSS
学校创先争优活动总结
2014/08/28 职场文书
2014年国庆晚会主持词
2014/09/19 职场文书
北大自主招生自荐信
2015/03/04 职场文书
自主招生推荐信怎么写
2015/03/26 职场文书
撤回我也能看到!教你用Python制作微信防撤回脚本
2021/06/11 Python