python BeautifulSoup使用方法详解


Posted in Python onNovember 21, 2013

直接看例子:

#!/usr/bin/python
# -*- coding: utf-8 -*-
from bs4 import BeautifulSoup
html_doc = """
<html><head><title>The Dormouse's story</title></head>
<body>
<p class="title"><b>The Dormouse's story</b></p>
<p class="story">Once upon a time there were three little sisters; and their names were
<a href="https://3water.com" class="sister" id="link1">Elsie</a>,
<a href="https://3water.com" class="sister" id="link2">Lacie</a> and
<a href="https://3water.com" class="sister" id="link3">Tillie</a>;
and they lived at the bottom of a well.</p>
<p class="story">...</p>
"""
soup = BeautifulSoup(html_doc)
print soup.title
print soup.title.name
print soup.title.string
print soup.p
print soup.a
print soup.find_all('a')
print soup.find(id='link3')
print soup.get_text()

结果为:

<title>The Dormouse's story</title>
title
The Dormouse's story
<p class="title"><b>The Dormouse's story</b></p>
<a class="sister" href="https://3water.com" id="link1">Elsie</a>
[<a class="sister" href="https://3water.com" id="link1">Elsie</a>, <a class="sister" href="https://3water.com" id="link2">Lacie</a>, <a class="sister" href="https://3water.com" id="link3">Tillie</a>]
<a class="sister" href="https://3water.com" id="link3">Tillie</a>
The Dormouse's story
The Dormouse's story
Once upon a time there were three little sisters; and their names were
Elsie,
Lacie and
Tillie;
and they lived at the bottom of a well.
...

可以看出:soup 就是BeautifulSoup处理格式化后的字符串,soup.title 得到的是title标签,soup.p  得到的是文档中的第一个p标签,要想得到所有标签,得用find_all
函数。find_all 函数返回的是一个序列,可以对它进行循环,依次得到想到的东西.
get_text() 是返回文本,这个对每一个BeautifulSoup处理后的对象得到的标签都是生效的。你可以试试 print soup.p.get_text()
其实是可以获得标签的其他属性的,比如我要获得a标签的href属性的值,可以使用 print soup.a['href'],类似的其他属性,比如class也是可以这么得到的(soup.a['class'])。
特别的,一些特殊的标签,比如head标签,是可以通过soup.head 得到,其实前面也已经说了。
如何获得标签的内容数组?使用contents 属性就可以 比如使用 print soup.head.contents,就获得了head下的所有子孩子,以列表的形式返回结果,
可以使用 [num]  的形式获得 ,获得标签,使用.name 就可以。
获取标签的孩子,也可以使用children,但是不能print soup.head.children 没有返回列表,返回的是 <listiterator object at 0x108e6d150>,
不过使用list可以将其转化为列表。当然可以使用for 语句遍历里面的孩子。
关于string属性,如果超过一个标签的话,那么就会返回None,否则就返回具体的字符串print soup.title.string 就返回了 The Dormouse's story
超过一个标签的话,可以试用strings
向上查找可以用parent函数,如果查找所有的,那么可以使用parents函数
查找下一个兄弟使用next_sibling,查找上一个兄弟节点使用previous_sibling,如果是查找所有的,那么在对应的函数后面加s就可以

如何遍历树?

使用find_all 函数

find_all(name, attrs, recursive, text, limit, **kwargs)

举例说明:

print soup.find_all('title')
print soup.find_all('p','title')
print soup.find_all('a')
print soup.find_all(id="link2")
print soup.find_all(id=True)

返回值为:

[<title>The Dormouse's story</title>]
[<p class="title"><b>The Dormouse's story</b></p>]
[<a class="sister" href="https://3water.com" id="link1">Elsie</a>, <a class="sister" href="https://3water.com" id="link2">Lacie</a>, <a class="sister" href="https://3water.com" id="link3">Tillie</a>]
[<a class="sister" href="https://3water.com" id="link2">Lacie</a>]
[<a class="sister" href="https://3water.com" id="link1">Elsie</a>, <a class="sister" href="https://3water.com" id="link2">Lacie</a>, <a class="sister" href="https://3water.com" id="link3">Tillie</a>]

通过css查找,直接上例子:

print soup.find_all("a", class_="sister")
print soup.select("p.title")

通过属性进行查找

print soup.find_all("a", attrs={"class": "sister"})

通过文本进行查找

print soup.find_all(text="Elsie")
print soup.find_all(text=["Tillie", "Elsie", "Lacie"])

限制结果个数

print soup.find_all("a", limit=2)

结果为:

[<a class="sister" href="https://3water.com" id="link1">Elsie</a>, <a class="sister" href="https://3water.com" id="link2">Lacie</a>, <a class="sister" href="https://3water.com" id="link3">Tillie</a>]
[<p class="title"><b>The Dormouse's story</b></p>]
[<a class="sister" href="https://3water.com" id="link1">Elsie</a>, <a class="sister" href="https://3water.com" id="link2">Lacie</a>, <a class="sister" href="https://3water.com" id="link3">Tillie</a>]
[u'Elsie']
[u'Elsie', u'Lacie', u'Tillie']
[<a class="sister" href="https://3water.com" id="link1">Elsie</a>, <a class="sister" href="https://3water.com" id="link2">Lacie</a>]

总之,通过这些函数可以查找到想要的东西。

Python 相关文章推荐
详解Python的Django框架中的Cookie相关处理
Jul 22 Python
利用Python为iOS10生成图标和截屏
Sep 24 Python
Python批量提取PDF文件中文本的脚本
Mar 14 Python
Python 输出时去掉列表元组外面的方括号与圆括号的方法
Dec 24 Python
pycharm配置pyqt5-tools开发环境的方法步骤
Feb 11 Python
详解Python数据分析--Pandas知识点
Mar 23 Python
python pandas 时间日期的处理实现
Jul 30 Python
Django中的cookie和session
Aug 27 Python
Django admin 实现search_fields精确查询实例
Mar 30 Python
浅谈Python中的生成器和迭代器
Jun 19 Python
Python实现一个优先级队列的方法
Jul 31 Python
Python自动化测试中yaml文件读取操作
Aug 20 Python
python装饰器使用方法实例
Nov 21 #Python
tornado框架blog模块分析与使用
Nov 21 #Python
python迭代器的使用方法实例
Nov 21 #Python
python生成器的使用方法
Nov 21 #Python
python单链表实现代码实例
Nov 21 #Python
python双向链表实现实例代码
Nov 21 #Python
python二叉树遍历的实现方法
Nov 21 #Python
You might like
php中unlink()、mkdir()、rmdir()等方法的使用介绍
2012/12/21 PHP
phplot生成图片类用法详解
2015/01/06 PHP
php读取csc文件并输出
2015/05/21 PHP
php实现转换ubb代码的方法
2015/06/18 PHP
使用ThinkPHP的自动完成实现无限级分类实例详解
2016/09/02 PHP
JS 实现Json查询的方法实例
2013/04/12 Javascript
javascript的propertyIsEnumerable()方法使用介绍
2014/04/09 Javascript
node.js中的fs.realpath方法使用说明
2014/12/16 Javascript
第八篇Bootstrap下拉菜单实例代码
2016/06/21 Javascript
百度搜索框智能提示案例jsonp
2016/11/28 Javascript
JS中使用new Date(str)创建时间对象不兼容firefox和ie的解决方法(两种)
2016/12/14 Javascript
vue2滚动条加载更多数据实现代码
2017/01/10 Javascript
jquery实现焦点轮播效果
2017/02/23 Javascript
vue 验证码界面实现点击后标灰并设置div按钮不可点击状态
2019/10/28 Javascript
详解Python中的strftime()方法的使用
2015/05/22 Python
浅谈scrapy 的基本命令介绍
2017/06/13 Python
python3+PyQt5图形项的自定义和交互 python3实现page Designer应用程序
2020/07/20 Python
uwsgi+nginx部署Django项目操作示例
2018/12/04 Python
numpy 声明空数组详解
2019/12/05 Python
Python标准库itertools的使用方法
2020/01/17 Python
手把手教你进行Python虚拟环境配置教程
2020/02/03 Python
Django实现前台上传并显示图片功能
2020/05/29 Python
简单介绍Object类的功能、常用方法
2013/10/02 面试题
下面这个程序执行后会有什么错误或者效果
2014/11/03 面试题
幼儿园实习自我鉴定
2013/12/15 职场文书
文员岗位职责范本
2014/03/08 职场文书
农村面貌改造提升实施方案
2014/03/18 职场文书
质量在我心中演讲稿
2014/09/02 职场文书
2014年挂职干部工作总结
2014/12/06 职场文书
师德先进个人材料
2014/12/20 职场文书
2015年复活节活动总结
2015/02/27 职场文书
清明节网上祭英烈寄语2015
2015/03/04 职场文书
亲情作文之母爱
2019/09/25 职场文书
Ajax实现局部刷新的方法实例
2021/03/31 Javascript
详解PHP设计模式之依赖注入模式
2021/05/25 PHP
mysql 排序失效
2022/05/20 MySQL