python爬虫实战之最简单的网页爬虫教程


Posted in Python onAugust 13, 2017

前言

网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。最近对python爬虫有了强烈地兴趣,在此分享自己的学习路径,欢迎大家提出建议。我们相互交流,共同进步。话不多说了,来一起看看详细的介绍:

1.开发工具

笔者使用的工具是sublime text3,它的短小精悍(可能男人们都不喜欢这个词)使我十分着迷。推荐大家使用,当然如果你的电脑配置不错,pycharm可能更加适合你。

sublime text3搭建python开发环境推荐查看这篇文章:

[sublime搭建python开发环境][https://3water.com/article/51838.htm]

2.爬虫介绍

爬虫顾名思义,就是像虫子一样,爬在Internet这张大网上。如此,我们便可以获取自己想要的东西。

既然要爬在Internet上,那么我们就需要了解URL,法号“统一资源定位器”,小名“链接”。其结构主要由三部分组成:

(1)协议:如我们在网址中常见的HTTP协议。

(2)域名或者IP地址:域名,如:www.baidu.com,IP地址,即将域名解析后对应的IP。

(3)路径:即目录或者文件等。

3.urllib开发最简单的爬虫

(1)urllib简介

Module Introduce
urllib.error Exception classes raised by urllib.request.
urllib.parse Parse URLs into or assemble them from components.
urllib.request Extensible library for opening URLs.
urllib.response Response classes used by urllib.
urllib.robotparser Load a robots.txt file and answer questions about fetchability of other URLs.

(2)开发最简单的爬虫

百度首页简洁大方,很适合我们爬虫。

爬虫代码如下:

from urllib import request

def visit_baidu():
 URL = "http://www.baidu.com"
 # open the URL
 req = request.urlopen(URL)
 # read the URL 
 html = req.read()
 # decode the URL to utf-8
 html = html.decode("utf_8")
 print(html)

if __name__ == '__main__':
 visit_baidu()

结果如下图:

python爬虫实战之最简单的网页爬虫教程

我们可以通过在百度首页空白处右击,查看审查元素来和我们的运行结果对比。

当然,request也可以生成一个request对象,这个对象可以用urlopen方法打开。

代码如下:

from urllib import request

def vists_baidu():
 # create a request obkect
 req = request.Request('http://www.baidu.com')
 # open the request object
 response = request.urlopen(req)
 # read the response 
 html = response.read()
 html = html.decode('utf-8')
 print(html)

if __name__ == '__main__':
 vists_baidu()

运行结果和刚才相同。

(3)错误处理

错误处理通过urllib模块来处理,主要有URLError和HTTPError错误,其中HTTPError错误是URLError错误的子类,即HTTRPError也可以通过URLError捕获。

HTTPError可以通过其code属性来捕获。

处理HTTPError的代码如下:

from urllib import request
from urllib import error

def Err():
 url = "https://segmentfault.com/zzz"
 req = request.Request(url)

 try:
 response = request.urlopen(req)
 html = response.read().decode("utf-8")
 print(html)
 except error.HTTPError as e:
 print(e.code)
if __name__ == '__main__':
 Err()

运行结果如图:

python爬虫实战之最简单的网页爬虫教程

404为打印出的错误代码,关于此详细信息大家可以自行百度。

URLError可以通过其reason属性来捕获。

chuliHTTPError的代码如下:

from urllib import request
from urllib import error

def Err():
 url = "https://segmentf.com/"
 req = request.Request(url)

 try:
 response = request.urlopen(req)
 html = response.read().decode("utf-8")
 print(html)
 except error.URLError as e:
 print(e.reason)
if __name__ == '__main__':
 Err()

运行结果如图:

python爬虫实战之最简单的网页爬虫教程

既然为了处理错误,那么最好两个错误都写入代码中,毕竟越细致越清晰。须注意的是,HTTPError是URLError的子类,所以一定要将HTTPError放在URLError的前面,否则都会输出URLError的,如将404输出为Not Found。

代码如下:

from urllib import request
from urllib import error

# 第一种方法,URLErroe和HTTPError
def Err():
 url = "https://segmentfault.com/zzz"
 req = request.Request(url)

 try:
 response = request.urlopen(req)
 html = response.read().decode("utf-8")
 print(html)
 except error.HTTPError as e:
 print(e.code)
 except error.URLError as e:
 print(e.reason)

大家可以更改url来查看各种错误的输出形式。

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对三水点靠木的支持。

Python 相关文章推荐
详解Python函数作用域的LEGB顺序
May 14 Python
python 写入csv乱码问题解决方法
Oct 23 Python
详解python脚本自动生成需要文件实例代码
Feb 04 Python
Python实现发送QQ邮件的封装
Jul 14 Python
python 运用Django 开发后台接口的实例
Dec 11 Python
Python3爬虫之urllib携带cookie爬取网页的方法
Dec 28 Python
详解python和matlab的优势与区别
Jun 28 Python
python的等深分箱实例
Nov 22 Python
PageFactory设计模式基于python实现
Apr 14 Python
python中wheel的用法整理
Jun 15 Python
Python获取excel内容及相关操作代码实例
Aug 10 Python
python读取并查看npz/npy文件数据以及数据显示方法
Apr 14 Python
详解python中executemany和序列的使用方法
Aug 12 #Python
mysql 之通过配置文件链接数据库
Aug 12 #Python
python+selenium开发环境搭建图文教程
Aug 11 #Python
Python实现的递归神经网络简单示例
Aug 11 #Python
Python调用系统底层API播放wav文件的方法
Aug 11 #Python
Django 导出 Excel 代码的实例详解
Aug 11 #Python
python技能之数据导出excel的实例代码
Aug 11 #Python
You might like
实用函数10
2007/11/08 PHP
页面乱码问题的根源及其分析
2013/08/09 PHP
PHP利用MySQL保存session的实现思路及示例代码
2014/09/09 PHP
IE8 中使用加速器(Activities)
2010/05/14 Javascript
js弹窗代码 可以指定弹出间隔
2010/07/03 Javascript
理解Javascript_06_理解对象的创建过程
2010/10/15 Javascript
jQuery实现切换页面布局使用介绍
2011/10/09 Javascript
js操作table元素实现表格行列新增、删除技巧总结
2015/11/18 Javascript
利用BootStrap弹出二级对话框的简单实现方法
2016/09/21 Javascript
JS正则匹配URL网址的方法(可匹配www,http开头的一切网址)
2017/01/06 Javascript
es6的数字处理的方法(5个)
2017/03/16 Javascript
JavaScript闭包_动力节点Java学院整理
2017/06/27 Javascript
浅谈vue的props,data,computed变化对组件更新的影响
2018/01/16 Javascript
Vue实现点击当前行变色
2020/12/14 Vue.js
js实现随机点名功能
2020/12/23 Javascript
浅谈配置OpenCV3 + Python3的简易方法(macOS)
2018/04/02 Python
Python实现的生产者、消费者问题完整实例
2018/05/30 Python
python3利用venv配置虚拟环境及过程中的小问题小结
2018/08/01 Python
钉钉群自定义机器人消息Python封装的实例
2019/02/20 Python
使用Python制作简单的小程序IP查看器功能
2019/04/16 Python
python3 tkinter实现点击一个按钮跳出另一个窗口的方法
2019/06/13 Python
PyTorch中常用的激活函数的方法示例
2019/08/20 Python
Flask之pipenv虚拟环境的实现
2019/11/26 Python
解决Python使用列表副本的问题
2019/12/19 Python
浅析python标准库中的glob
2020/03/13 Python
德国机场停车位比较和预订网站:Ich-parke-billiger
2018/01/08 全球购物
美国滑雪板和装备购物网站:Skis.com
2018/12/20 全球购物
销售类个人求职信范文
2013/09/25 职场文书
班级入场式解说词
2014/02/01 职场文书
金融管理毕业生求职信
2014/03/03 职场文书
募捐感谢信
2015/01/22 职场文书
2016年秋季新学期致辞
2015/07/30 职场文书
药房管理制度范本
2015/08/06 职场文书
2016年大学生社会实践心得体会
2015/10/09 职场文书
2016党员党章学习心得体会
2016/01/14 职场文书
美元符号 $
2022/02/17 杂记