零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版


Posted in Python onNovember 06, 2014

百度贴吧的爬虫制作和糗百的爬虫制作原理基本相同,都是通过查看源码扣出关键数据,然后将其存储到本地txt文件。

项目内容:

用Python写的百度贴吧的网络爬虫。

使用方法:

新建一个BugBaidu.py文件,然后将代码复制到里面后,双击运行。

程序功能:

将贴吧中楼主发布的内容打包txt存储到本地。

原理解释:

首先,先浏览一下某一条贴吧,点击只看楼主并点击第二页之后url发生了一点变化,变成了:
http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1
可以看出来,see_lz=1是只看楼主,pn=1是对应的页码,记住这一点为以后的编写做准备。
这就是我们需要利用的url。
接下来就是查看页面源码。
首先把题目抠出来存储文件的时候会用到。
可以看到百度使用gbk编码,标题使用h1标记:

<h1 class="core_title_txt" title="【原创】时尚首席(关于时尚,名利,事业,爱情,励志)">【原创】时尚首席(关于时尚,名利,事业,爱情,励志)</h1> 

同样,正文部分用div和class综合标记,接下来要做的只是用正则表达式来匹配即可。
运行截图:

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

生成的txt文件:

零基础写python爬虫之抓取百度贴吧并存储到本地txt文件改进版

# -*- coding: utf-8 -*-  

#---------------------------------------  

#   程序:百度贴吧爬虫  

#   版本:0.5  

#   作者:why  

#   日期:2013-05-16  

#   语言:Python 2.7  

#   操作:输入网址后自动只看楼主并保存到本地文件  

#   功能:将楼主发布的内容打包txt存储到本地。  

#---------------------------------------  

   

import string  

import urllib2  

import re  

  

#----------- 处理页面上的各种标签 -----------  

class HTML_Tool:  

    # 用非 贪婪模式 匹配 \t 或者 \n 或者 空格 或者 超链接 或者 图片  

    BgnCharToNoneRex = re.compile("(\t|\n| |<a.*?>|<img.*?>)")  

      

    # 用非 贪婪模式 匹配 任意<>标签  

    EndCharToNoneRex = re.compile("<.*?>")  

  

    # 用非 贪婪模式 匹配 任意<p>标签  

    BgnPartRex = re.compile("<p.*?>")  

    CharToNewLineRex = re.compile("(<br/>|</p>|<tr>|<div>|</div>)")  

    CharToNextTabRex = re.compile("<td>")  

  

    # 将一些html的符号实体转变为原始符号  

    replaceTab = [("<","<"),(">",">"),("&","&"),("&","\""),(" "," ")]  

      

    def Replace_Char(self,x):  

        x = self.BgnCharToNoneRex.sub("",x)  

        x = self.BgnPartRex.sub("\n    ",x)  

        x = self.CharToNewLineRex.sub("\n",x)  

        x = self.CharToNextTabRex.sub("\t",x)  

        x = self.EndCharToNoneRex.sub("",x)  

  

        for t in self.replaceTab:    

            x = x.replace(t[0],t[1])    

        return x    

      

class Baidu_Spider:  

    # 申明相关的属性  

    def __init__(self,url):    

        self.myUrl = url + '?see_lz=1'  

        self.datas = []  

        self.myTool = HTML_Tool()  

        print u'已经启动百度贴吧爬虫,咔嚓咔嚓'  

    

    # 初始化加载页面并将其转码储存  

    def baidu_tieba(self):  

        # 读取页面的原始信息并将其从gbk转码  

        myPage = urllib2.urlopen(self.myUrl).read().decode("gbk")  

        # 计算楼主发布内容一共有多少页  

        endPage = self.page_counter(myPage)  

        # 获取该帖的标题  

        title = self.find_title(myPage)  

        print u'文章名称:' + title  

        # 获取最终的数据  

        self.save_data(self.myUrl,title,endPage)  

  

    #用来计算一共有多少页  

    def page_counter(self,myPage):  

        # 匹配 "共有<span class="red">12</span>页" 来获取一共有多少页  

        myMatch = re.search(r'class="red">(\d+?)</span>', myPage, re.S)  

        if myMatch:    

            endPage = int(myMatch.group(1))  

            print u'爬虫报告:发现楼主共有%d页的原创内容' % endPage  

        else:  

            endPage = 0  

            print u'爬虫报告:无法计算楼主发布内容有多少页!'  

        return endPage  

  

    # 用来寻找该帖的标题  

    def find_title(self,myPage):  

        # 匹配 <h1 class="core_title_txt" title="">xxxxxxxxxx</h1> 找出标题  

        myMatch = re.search(r'<h1.*?>(.*?)</h1>', myPage, re.S)  

        title = u'暂无标题'  

        if myMatch:  

            title  = myMatch.group(1)  

        else:  

            print u'爬虫报告:无法加载文章标题!'  

        # 文件名不能包含以下字符: \ / : * ? " < > |  

        title = title.replace('\\','').replace('/','').replace(':','').replace('*','').replace('?','').replace('"','').replace('>','').replace('<','').replace('|','')  

        return title  

  

    # 用来存储楼主发布的内容  

    def save_data(self,url,title,endPage):  

        # 加载页面数据到数组中  

        self.get_data(url,endPage)  

        # 打开本地文件  

        f = open(title+'.txt','w+')  

        f.writelines(self.datas)  

        f.close()  

        print u'爬虫报告:文件已下载到本地并打包成txt文件'  

        print u'请按任意键退出...'  

        raw_input();  

  

    # 获取页面源码并将其存储到数组中  

    def get_data(self,url,endPage):  

        url = url + '&pn='  

        for i in range(1,endPage+1):  

            print u'爬虫报告:爬虫%d号正在加载中...' % i  

            myPage = urllib2.urlopen(url + str(i)).read()  

            # 将myPage中的html代码处理并存储到datas里面  

            self.deal_data(myPage.decode('gbk'))  

              

    # 将内容从页面代码中抠出来  

    def deal_data(self,myPage):  

        myItems = re.findall('id="post_content.*?>(.*?)</div>',myPage,re.S)  

        for item in myItems:  

            data = self.myTool.Replace_Char(item.replace("\n","").encode('gbk'))  

            self.datas.append(data+'\n') 
#-------- 程序入口处 ------------------  

print u"""#--------------------------------------- 

#   程序:百度贴吧爬虫 

#   版本:0.5 

#   作者:why 

#   日期:2013-05-16 

#   语言:Python 2.7 

#   操作:输入网址后自动只看楼主并保存到本地文件 

#   功能:将楼主发布的内容打包txt存储到本地。 

#--------------------------------------- 

"""  

# 以某小说贴吧为例子  

# bdurl = 'http://tieba.baidu.com/p/2296712428?see_lz=1&pn=1'  

  

print u'请输入贴吧的地址最后的数字串:'  

bdurl = 'http://tieba.baidu.com/p/' + str(raw_input(u'http://tieba.baidu.com/p/'))   

  

#调用  

mySpider = Baidu_Spider(bdurl)  

mySpider.baidu_tieba() 

以上就是改进之后的抓取百度贴吧的全部代码了,非常的简单实用吧,希望能对大家有所帮助

Python 相关文章推荐
python基础教程之lambda表达式使用方法
Feb 12 Python
在Django的模型和公用函数中使用惰性翻译对象
Jul 27 Python
Python自定义线程池实现方法分析
Feb 07 Python
python使用TensorFlow进行图像处理的方法
Feb 28 Python
教你使用python实现微信每天给女朋友说晚安
Mar 23 Python
详解Python 协程的详细用法使用和例子
Jun 15 Python
Python实现Linux监控的方法
May 16 Python
python 随机森林算法及其优化详解
Jul 11 Python
python 使用socket传输图片视频等文件的实现方式
Aug 07 Python
Python Web框架之Django框架Model基础详解
Aug 16 Python
Keras 在fit_generator训练方式中加入图像random_crop操作
Jul 03 Python
Python直接赋值及深浅拷贝原理详解
Sep 05 Python
零基础写python爬虫之抓取糗事百科代码分享
Nov 06 #Python
零基础写python爬虫之神器正则表达式
Nov 06 #Python
零基础写python爬虫之抓取百度贴吧代码分享
Nov 06 #Python
零基础写python爬虫之urllib2使用指南
Nov 05 #Python
零基础写python爬虫之urllib2中的两个重要概念:Openers和Handlers
Nov 05 #Python
零基础写python爬虫之HTTP异常处理
Nov 05 #Python
零基础写python爬虫之使用urllib2组件抓取网页内容
Nov 04 #Python
You might like
Php Mssql操作简单封装支持存储过程
2009/12/11 PHP
解析php5配置使用pdo
2013/07/03 PHP
PHP实现PDO的mysql数据库操作类
2014/12/12 PHP
php 把数字转换成汉字的代码
2015/07/21 PHP
javascript 面向对象编程基础:继承
2009/08/21 Javascript
学习ExtJS form布局
2009/10/08 Javascript
JavaScript判断DIV内容是否为空的方法
2016/01/29 Javascript
值得分享和收藏的Bootstrap学习教程
2016/05/12 Javascript
通过JS和PHP两种方法判断用户请求时使用的浏览器类型
2016/09/01 Javascript
详解javascript事件绑定使用方法
2016/10/20 Javascript
BootStrap导航栏问题记录
2017/07/31 Javascript
JS随机排序数组实现方法分析
2017/10/11 Javascript
微信小程序实现多宫格抽奖活动
2020/04/15 Javascript
Angular4 ElementRef的应用
2018/02/26 Javascript
Vue多环境代理配置方法思路详解
2019/06/21 Javascript
JS事件循环机制event loop宏任务微任务原理解析
2020/08/04 Javascript
vue-calendar-component 封装多日期选择组件的实例代码
2020/12/04 Vue.js
[49:21]TNC vs VG 2019DOTA2国际邀请赛淘汰赛 胜者组赛BO3 第三场 8.20.mp4
2019/08/22 DOTA
Python实现类似比特币的加密货币区块链的创建与交易实例
2018/03/20 Python
Python常用模块之requests模块用法分析
2019/05/15 Python
基于python实现学生信息管理系统
2019/11/22 Python
pycharm 关掉syntax检查操作
2020/06/09 Python
Python自动登录QQ的实现示例
2020/08/28 Python
Python 操作 MySQL数据库
2020/09/18 Python
python对批量WAV音频进行等长分割的方法实现
2020/09/25 Python
Scrapy中如何向Spider传入参数的方法实现
2020/09/28 Python
大学生毕业自我评价范文分享
2013/11/07 职场文书
大学本科毕业生的自我鉴定
2013/11/26 职场文书
信息与计算科学专业推荐信
2014/02/23 职场文书
外语系毕业生求职自荐信
2014/04/12 职场文书
公共场所禁烟标语
2014/06/25 职场文书
部队反四风对照检查材料
2014/09/26 职场文书
研究生就业推荐表导师评语
2014/12/31 职场文书
羊脂球读书笔记
2015/06/30 职场文书
2015年小学远程教育工作总结
2015/07/28 职场文书
MySQL笔记 —SQL运算符
2022/01/18 MySQL