python 爬取豆瓣网页的示例


Posted in Python onApril 13, 2021

python作为一种已经广泛传播且相对易学的解释型语言,现如今在各方面都有着广泛的应用。而爬虫则是其最为我们耳熟能详的应用,今天笔者就着重针对这一方面进行介绍。

python 语法简要介绍

python 的基础语法大体与c语言相差不大,由于省去了c语言中的指针等较复杂的结构,所以python更被戏称为最适合初学者的语言。而在基础语法之外,python由其庞大的第三方库组成,而其中包含多种模块,而通过模块中包含的各种函数与方法能够帮助我们实现各种各样的功能。

而在python爬虫中,我们需要用到的标准库有:

  • urllib
  • re
  • bs4
  • xlwt

其中urllib库可以帮助我们爬取目标网页的html代码,bs4中的beautifulsoup模块以及re库中的正则表达式可以将我们需要的数据从代码中提取出来,而xlwt库可以将数据储存至excel表中,从而最终完成数据的爬取。

接下来,就步入我们此次介绍的重点——完整爬取一个网页的数据。

本篇文章以爬取豆瓣电影top250的数据为例,并将爬取的过程分为三个部分:

1.爬取网页

2.解析网页

3.储存网页

那么,让我们开始吧!

豆瓣top250网址:https://movie.douban.com/top250?start=

爬取网页

import urllib.request

引入urllib库中的request模块

def askURL(url):
    head = {
        "User-Agent": "Mozilla / 5.0(Windows NT 10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 88.0.4324.182Safari / 537.36"
    }# 模拟浏览器的登录
    request = urllib.request.Request(url,headers=head)
    #将网页的url和头部信息封装至一起
    response = urllib.request.urlopen(request)
    #获取网页的html代码
    html = response.read().decode("utf-8")
    #将获取的数据转化为utf-8格式
    #print(html)    #此步可以实验一下能否成功爬取网页的html代码
    return html

1.其中urllib.request.Request可以帮我们把要爬取的网页的url及其他的头部信息封装至一起。

2.urlopen函数则可以帮助我们爬取下该网页的html代码

3.有一些网站会设置一下反爬机制来阻止我们的爬虫,此时就需要我们设置头部信息来模拟浏览器访问网站

python 爬取豆瓣网页的示例

需要用浏览器进入该网址,使用开发者模式获取我们需要的头部信息(也就是该图中的user-agent)

4.最后需要将我们的爬取下的html代码转化为utf-8格式进行输出

解析网页

import re
from bs4 import BeautifulSoup

引入re库和bs4库

def getData(baseurl):
    datalist = []   #建立一个存放解析出的数据的元组
    for i in range(0,10):
        url = baseurl + str(i*25)
        # 通过以下两张截图,我们可以发现豆瓣将每25部电影分为一页,共分成了10页、
        # 而其url的差别仅在最后加了25,故通过该规律,可将所有10张网页的url全部获取
        html = askURL(url)
        soup = BeautifulSoup(html,"html.parser")
        #通过beautifulsoup模块自带的html代码解析器进行解析
        #并将解析器解析出的数据放至soup中

python 爬取豆瓣网页的示例

逐页进行解析,使解析出的数据能被我们接下来要使用的正则表达式识别

所谓正则表达式,就是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑,通过这种过滤,就可以得到我们想要的信息,就例如影片的名称,评分等信息。

findlink = re.compile(r'<a href="(.*?)" rel="external nofollow" >')  # r表示不受转义字符的影响
#该代码通过正则表达式搜寻到所有关于影片链接的数据,以下代码类似
findImgSrc = re.compile(r'<img.*src="(.*?)"',re.S) #让换行符包含在字符中
findtitle = re.compile(r'<span class="title">(.*)</span>')
findscore = re.compile(r'<span class="rating_num" property="v:average">(.*)</span>')
findjudge = re.compile(r'<span>(\d*)人评价</span>')
findinq = re.compile(r'<span class="inq">(.*)</span>')
findbd = re.compile(r'<p class="">(.*?)</p>',re.S)
for item in soup.find_all("div",class_="item"):
        #提取所有class为“item”的div模块,并通过for循环一步步处理
            data = []
            item = str(item) #将item转化为字符串类型
            link = re.findall(findlink,item)[0]
            #通过影片详情链接的正则表达式抽取数据
            data.append(link)
            #存放至data列表中
            ImgSrc = re.findall(findImgSrc,item)[0]
            data.append(ImgSrc)
            title = re.findall(findtitle,item)
            if len(title)==2:
                #如果影片有多个名称,则分别进行存储
                ctitle = title[0]
                data.append(ctitle)
                otitle = title[1].replace("/","")
                data.append(otitle)
            else:
                data.append(title[0])
                data.append(" ")
            score = re.findall(findscore,item)
            data.append(score)
            judge = re.findall(findjudge,item)
            data.append(judge)
            inq = re.findall(findinq,item)
            if len(inq)!=0:
                inq = inq[0].replace("。","")
                data.append(inq)
            else:
                data.append("")
                #若有影片详情,则输出;若没有,则输出为空
            bd = re.findall(findbd,item)[0]
            bd = re.sub('<br(\s+)?/>(\s+)?'," ",bd)
            bd = re.sub('/'," ",bd)
            data.append(bd.strip())   # 去掉前后空格

            datalist.append(data)
    print(datalist)
    return datalist

以上代码能通过正则表达式抽取出需要的数据存放data列表中,然后将所有的data数据存放至datalist列表中。

储存网页

将解析出的数据储存到excel表中

import xlwt

引入xlwt库

def savepath(datalist):
    workbook = xlwt.Workbook(encoding="utf-8")
 #创建以utf-8格式编码的一个workbook对象,该对象最后能保存为excel表格
    worksheet = workbook.add_sheet("sheetwdy")
 #创建工作表“sheetwdy”
    col = ("电影详情链接", "图片链接", "影片中文名", "影片外国名", "评分", "评价数", "概况", "相关信息")
 #创建一个元组
    for i in range(0, 8):
        worksheet.write(0, i, col[i])  
 # 将我们刚定义的元组中的信息写入excel表的第一行
    for i in range(0, 250):
        print("第%d条" % (i + 1))
        data = datalist[i]
        for j in range(0, 8):
            worksheet.write(i + 1, j, data[j])
 #将解析出的数据通过for循环一条条导入excel表中
    workbook.save("豆瓣250.xls")
 #将该excel表进行保存

如此我们便可以把解析出的数据存储至excel表中了

python 爬取豆瓣网页的示例

以上便为成品图

以上就是python 爬取豆瓣网页的示例的详细内容,更多关于python 爬取豆瓣网页的资料请关注三水点靠木其它相关文章!

Python 相关文章推荐
Django框架下在视图中使用模版的方法
Jul 16 Python
Python利用IPython提高开发效率
Aug 10 Python
python处理Excel xlrd的简单使用
Sep 12 Python
python使用itchat库实现微信机器人(好友聊天、群聊天)
Jan 04 Python
python将秒数转化为时间格式的实例
Sep 16 Python
对python周期性定时器的示例详解
Feb 19 Python
Django中间件基础用法详解
Jul 18 Python
从多个tfrecord文件中无限读取文件的例子
Feb 17 Python
Python @property及getter setter原理详解
Mar 31 Python
Pycharm及python安装详细步骤及PyCharm配置整理(推荐)
Jul 31 Python
python 读取.nii格式图像实例
Jul 01 Python
Django视图类型总结
Feb 17 Python
简述python四种分词工具,盘点哪个更好用?
Apr 13 #Python
python自动化调用百度api解决验证码
利用Python网络爬虫爬取各大音乐评论的代码
用Python制作灯光秀短视频的思路详解
python实现socket简单通信的示例代码
使用Selenium实现微博爬虫(预登录、展开全文、翻页)
python用字节处理文件实例讲解
Apr 13 #Python
You might like
关于PHP结束标签的使用细节探讨及联想
2013/03/04 PHP
php/js获取客户端mac地址的实现代码
2013/07/08 PHP
合并ThinkPHP配置文件以消除代码冗余的实现方法
2014/07/22 PHP
PHP中使用CURL获取页面title例子
2015/01/07 PHP
PHP用户注册邮件激活账户的实现代码
2017/05/31 PHP
PHP实现微信提现功能
2018/09/30 PHP
laravel中数据显示方法(默认值和下拉option默认选中)
2019/10/11 PHP
Prototype 1.5.0_rc1 及 Prototype 1.5.0 Pre0小抄本
2006/09/22 Javascript
js跨域和ajax 跨域问题的实现思路
2009/09/05 Javascript
与jquery serializeArray()一起使用的函数,主要来方便提交表单
2011/01/31 Javascript
基于JavaScript自定义构造函数的详解说明
2013/04/24 Javascript
jQuery原理系列-常用Dom操作详解
2016/06/07 Javascript
JavaScript中的冒泡排序法
2016/08/03 Javascript
javascript使用闭包模拟对象的私有属性和方法
2016/10/05 Javascript
JavaScript实现的微信二维码图片生成器的示例
2016/10/26 Javascript
js基于myFocus实现轮播图效果
2017/02/14 Javascript
Node.js使用gm拼装sprite图片
2017/07/04 Javascript
JavaScript异步加载问题总结
2018/02/17 Javascript
vue使用@scroll监听滚动事件时,@scroll无效问题的解决方法详解
2019/10/15 Javascript
优化Vue中date format的性能详解
2020/01/13 Javascript
Python解决N阶台阶走法问题的方法分析
2017/12/28 Python
python如何求解两数的最大公约数
2018/09/27 Python
在Mac下使用python实现简单的目录树展示方法
2018/11/01 Python
python 实现调用子文件下的模块方法
2018/12/07 Python
Django Form 实时从数据库中获取数据的操作方法
2019/07/25 Python
Python基于Hypothesis测试库生成测试数据
2020/04/29 Python
如何理解Python中的变量
2020/06/01 Python
python编写softmax函数、交叉熵函数实例
2020/06/11 Python
pycharm全局搜索的具体步骤
2020/07/28 Python
python中@property的作用和getter setter的解释
2020/12/22 Python
Java中会存在内存泄漏吗,请简单描述
2016/12/22 面试题
给医务人员表扬信
2014/01/12 职场文书
119消防日活动总结
2014/08/29 职场文书
2015年度服装销售工作总结
2015/03/31 职场文书
考试后的感想
2015/08/07 职场文书
Python使用mitmproxy工具监控手机 下载手机小视频
2022/04/18 Python