用python写爬虫简单吗


Posted in Python onJuly 28, 2020

所谓网络爬虫,通俗的讲,就是通过向我们需要的URL发出http请求,获取该URL对应的http报文主体内容,之后提取该报文主体中我们所需要的信息。

下面是一个简单的爬虫程序

http基本知识

当我们通过浏览器访问指定的URL时,需要遵守http协议。本节将介绍一些关于http的基础知识。

http基本流程

我们打开一个网页的过程,就是一次http请求的过程。这个过程中,我们自己的主机充当着客户机的作用,而充当客户端的是浏览器。我们输入的URL对应着网络中某台服务器上面的资源,服务器接收到客户端发出的http请求之后,会给客户端一个响应,响应的内容就是请求的URL对应的内容,当客户端接收到服务器的响应时,我们就可以在浏览器上看见请求的信息了。

我们可以通过python的requests模块很方便的发起http请求。requests模块是第三方模块,安装完成之后直接import就能使用。下面介绍一些简单的用法

发起请求

import requests
# 请求的首部信息
headers = {
  'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) 
  Chrome/65.0.3325.146 Safari/537.36'
}
# 例子的url
url = 'https://voice.hupu.com/nba' # 虎扑nba新闻
# 利用requests对象的get方法,对指定的url发起请求
# 该方法会返回一个Response对象
res = requests.get(url, headers=headers)
# 通过Response对象的text方法获取网页的文本信息
print(res.text)

上面的代码中,我们向虎扑的服务器发送了一个get请求,获取虎扑首页的nba新闻。headers参数指的是http请求的首部信息,我们请求的url对应的资源是虎扑nba新闻的首页。获取到对应的网页资源之后,我们需要对其中的信息进行提取。

通过BeautifulSoup提取网页信息

BeautifulSoup库提供了很多解析html的方法,可以帮助我们很方便地提取我们需要的内容。我们这里说的BeautifulSoup指的是bs4。当我们成功抓取网页之后,就可以通过BeautifulSoup对象对网页内容进行解析。在BeautifulSoup中,我们最常用的方法就是find()方法和find_all()方法,借助于这两个方法,可以轻松地获取到我们需要的标签或者标签组。关于其他的方法,可以参考bs4的官方文档:BeautifulSoup

find()方法和find_all()方法的用法如下

find(name , attrs , recursive , string , **kwargs )
# find_all()方法将返回文档中符合条件的所有tag,
find_all(name , attrs , recursive , string , **kwargs )
from bs4 import BeautifulSoup
# BeautifulSoup对象接收html文档字符串
# lxml是html解析器
soup = Beautiful(res.text, 'lxml')
# 下面的方法找出了所有class为hello的span标签
# 并将所有的结果都放入一个list返回
tags = soup.find_all('span', {'class': 'hello'})

实例扩展:

实例一:

#第一种方法
import urllib2 #将urllib2库引用进来
response=urllib2.urlopen("http://www.baidu.com") #调用库中的方法,将请求回应封装到response对象中
html=response.read() #调用response对象的read()方法,将回应字符串赋给hhtml变量
print html #打印出来

实例二:

#第二中方法
import urllib2
req=urllib2.Request("http://ww.baidu.com")
response=urllib2.urlopen(req)
html = response.read()
print html

到此这篇关于用python写爬虫简单吗的文章就介绍到这了,更多相关python写爬虫难吗内容请搜索三水点靠木以前的文章或继续浏览下面的相关文章希望大家以后多多支持三水点靠木!

Python 相关文章推荐
Python获取电脑硬件信息及状态的实现方法
Aug 29 Python
python实现清屏的方法
Apr 30 Python
Python中的anydbm模版和shelve模版使用指南
Jul 09 Python
详解python单例模式与metaclass
Jan 15 Python
Python+selenium实现截图图片并保存截取的图片
Jan 05 Python
Python+OpenCV图片局部区域像素值处理详解
Jan 23 Python
Python Django框架实现应用添加logging日志操作示例
May 17 Python
用Cython加速Python到“起飞”(推荐)
Aug 01 Python
python解释器spython使用及原理解析
Aug 24 Python
Python爬虫爬取煎蛋网图片代码实例
Dec 16 Python
python3 简单实现组合设计模式
Jul 02 Python
python实现sm2和sm4国密(国家商用密码)算法的示例
Sep 26 Python
公认8个效率最高的爬虫框架
Jul 28 #Python
python如何爬取网页中的文字
Jul 28 #Python
Python同时处理多个异常的方法
Jul 28 #Python
Python远程方法调用实现过程解析
Jul 28 #Python
Python 实现一个计时器
Jul 28 #Python
python爬虫要用到的库总结
Jul 28 #Python
Python常用类型转换实现代码实例
Jul 28 #Python
You might like
PHP的单引号和双引号 字符串效率
2009/05/27 PHP
javascript,php获取函数参数对象的代码
2011/02/03 PHP
解决PHP超大文件下载,断点续传下载的方法详解
2013/06/06 PHP
php calender(日历)二个版本代码示例(解决2038问题)
2013/12/24 PHP
smarty内置函数capture用法分析
2015/01/22 PHP
php程序内部post数据的方法
2015/03/31 PHP
基于php双引号中访问数组元素报错的解决方法
2018/02/01 PHP
thinkPHP框架乐观锁和悲观锁实例分析
2019/10/30 PHP
phpQuery采集网页实现代码实例
2020/04/02 PHP
HR vs ForZe BO3 第一场 2.13
2021/03/10 DOTA
JavaScript获取GridView中用户点击控件的行号,列号
2009/04/14 Javascript
js 弹出菜单/窗口效果
2011/10/30 Javascript
fmt:formatDate的输出格式详解
2014/01/09 Javascript
JS获取几种URL地址的方法小结
2014/02/26 Javascript
Nodejs进程管理模块forever详解
2014/06/01 NodeJs
jquery判断当前浏览器的实现代码
2015/11/07 Javascript
JS正则子匹配实例分析
2016/12/22 Javascript
利用JQuery实现datatables插件的增加和删除行功能
2017/01/06 Javascript
JavaScript获取中英文混合字符串长度的方法示例
2017/02/04 Javascript
轻松理解JavaScript闭包
2017/03/14 Javascript
vue实现简单瀑布流布局
2020/05/28 Javascript
Django中数据库的数据关系:一对一,一对多,多对多
2018/10/21 Python
python实现简易淘宝购物
2019/11/22 Python
Opencv图像处理:如何判断图片里某个颜色值占的比例
2020/06/03 Python
Python 如何展开嵌套的序列
2020/08/01 Python
五种Python转义表示法
2020/11/27 Python
德国运动营养和健身网上商店:Myprotein.de
2018/07/18 全球购物
化工专业个人的求职信范文
2013/11/28 职场文书
市场营销毕业生自荐信范文
2014/04/01 职场文书
篮球比赛口号
2014/06/10 职场文书
英语课外活动总结
2014/08/27 职场文书
检查机关党的群众路线个人整改措施
2014/10/04 职场文书
2014年小学体育工作总结
2014/12/11 职场文书
考试作弊检讨
2015/01/27 职场文书
教师节老师寄语
2015/05/28 职场文书
2015中秋节晚会主持词
2015/07/01 职场文书