对python3 urllib包与http包的使用详解


Posted in Python onMay 10, 2018

urllib包和http包都是面向HTTP协议的。其中urllib主要用于处理 URL,使用urllib操作URL可以像使用和打开本地文件一样地操作。而 http包则实现了对 HTTP协议的封装,是urllib.request模块的底层。

1.urllib包简介

2. http 包简介

1.urllib包简介

urllib包主要模块有:

1.urllib.request -----用于打开 URL网址;

2.urllib.error ---------定义了常见的urllib.request会引发的异常;

3.urllib.parse---------用于解析 URL;

具体方法:

urllib.request.urlopen( url,data,proxies ) :用于打开 url

参数如下:

url:要进行操作的 URL地址

data:可选项。向URL 传递的数据。

proxies:可选项。使用的代理地址

import urllib.request
url = 'http://www.baidu.com'   #网页为百度首页
respone = urllib.request.urlopen(url) #打开url地址,并返回一个 HTTPRespone实例
html = respone.read().decode('utf-8') #调用实例的 read()方法,并用 utf-8进行解码处理。就得出完整的百度的HTML文件
print(html)

部分打印结果:

<html>
<head>
 
 <meta http-equiv="content-type" content="text/html;charset=utf-8">
 <meta http-equiv="X-UA-Compatible" content="IE=Edge">
	<meta content="always" name="referrer">
 <meta name="theme-color" content="#2932e1">
 <link rel="shortcut icon" href="/favicon.ico" rel="external nofollow" type="image/x-icon" />
 <link rel="search" type="application/opensearchdescription+xml" href="/content-search.xml" rel="external nofollow" title="百度搜索" /> 
 <link rel="icon" sizes="any" mask href="//www.baidu.com/img/baidu.svg" rel="external nofollow" >

urllib.request.urlretrieve(url,filename,reporthook,data) :用于将 URL的HTML文件下载并保存为本地文件

参数如下:

url:要下载的网页

filename:保存在主机的路径,可选项。

reporthook:一个回调函数,可选项。

data:发送的数据,一般用于 post,可选项。

特别:关于urlretrieve()的回调函数reporthook:可以用来显示下载的进度,几乎已经封装好

import urllib.request
def callbackfunc(blocknum, blocksize, totalsize): #这三个参数是由 urlretrieve自动赋值的
 '''回调函数
 @blocknum: 已经下载的数据块
 @blocksize: 数据块的大小
 @totalsize: 远程文件的大小
 '''
 percent = 100.0 * blocknum * blocksize / totalsize
 if percent > 100:
  percent = 100
 print( "%.2f%%"% percent) #保留两位小数
url = 'http://www.sina.com'
local = 'd:\\sina.html'        #下载的html文件保存在 d盘的sina.html里
urllib.request.urlretrieve(url,local,callbackfunc) #没下载完一个数据块,就会执行回调函数一次

执行结果:

//只显示局部 
0.00% 
1.38% 
2.76% 
4.13% 
5.51% 
6.89%

2. http包简介

http包提供了 HTTP协议的一些功能,主要模块有:

http.client --- 底层的 HTTP 协议的一些功能,可以为 urllib.request 模块所用

http.server --- 提供了基于 socketserver模块的基本 HTTP服务器类

http.cookies --- cookies 的管理工具

http.client :

HttpClient不是一个浏览器。它是一个客户端的HTTP通信实现库。HttpClient的目标是发送和接收HTTP报文。

两个主要类(用于客户端):

HTTPConnection :基于HTTP协议的客户端,指定 URL(网址) 后,可以 发送请求报文 和 接收响应报文

HTTPRespone :基于 HTTP 协议的服务端回应。一旦用 HTTPConnection 成功连接,可以调用相关方法返回该实例(HTTPRequest实例)。

(1)HTTPConnection 的方法:

构造方法: HTTPConnection( host,port,[timeout] ) 返回一个HTTPConnection 实例

host:表示主机域名或 ip 地址

port:表示端口

timeout:阻塞操作将会在给定时间后超时。可选项

发送请求报文方法:HTTPConnection.request( method,url,body =None,headers = {} )

method:发送的操作,一般为 GET 或者 POST

url :进行操作的 url

body :所发送的数据

headers:发送的 HTTP头部,是一个字典类型

获取响应报文方法:HTTPConnection.getrespone( )

关闭与服务器的连接: HTTPConne.close()

发送一个头部:HTTPConnection.putheader( header,args[ ] ) #头部以一个字典方式发送

发送一个空白行到服务器,标志头部Header的结束:HTTPConnection.endheaders( )

发送数据到服务器:HTTPConnection.send( data ) ,应该在endheaders()之后 和 getrespone()之前调用。

(2)HTTPRespone:

HTTPRespone对象:一旦用 HTTPConnection 成功连接,可以调用HTTPConnection.getrespone()返回该实例(HTTPRequest实例)。

HTTPRespone.getheader(name) :返回头部中的 name 字段对应的值

HTTPRespone.getheaders( ) :以元组的方式返回整个头部的信息

HTTPRespone.read() :返回响应报文中的body部分,也即正文部分

HTTPRespone.status #返回状态码

HTTPRespone.version #返回 HTTP协议版本

http 包应用实例 。

from http.client import HTTPConnection

con = HTTPConnection('www.baidu.com',80)
con.request('GET','/')   #发送请求报文
res = con.getresponse()   #获取响应报文对象
print(res.status) #200 (表示状态码)
print(res.reason) #OK	 (表示状态码对应的意义)
print(res.read().decode('utf-8')) #打印www.baidu.com的html

以上这篇对python3 urllib包与http包的使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持三水点靠木。

Python 相关文章推荐
python音频处理用到的操作的示例代码
Oct 27 Python
Django实现组合搜索的方法示例
Jan 23 Python
Django教程笔记之中间件middleware详解
Aug 01 Python
Python cv2 图像自适应灰度直方图均衡化处理方法
Dec 07 Python
Python3爬虫学习之将爬取的信息保存到本地的方法详解
Dec 12 Python
python自定义时钟类、定时任务类
Feb 22 Python
python实现的读取网页并分词功能示例
Oct 29 Python
Python日志syslog使用原理详解
Feb 18 Python
在django admin详情表单显示中添加自定义控件的实现
Mar 11 Python
python可迭代对象去重实例
May 15 Python
keras自定义回调函数查看训练的loss和accuracy方式
May 23 Python
Scrapy项目实战之爬取某社区用户详情
Sep 17 Python
Python3处理HTTP请求的实例
May 10 #Python
python字符串与url编码的转换实例
May 10 #Python
Python中的单继承与多继承实例分析
May 10 #Python
python3处理含有中文的url方法
May 10 #Python
Python异常处理操作实例详解
May 10 #Python
解决python3 网络请求路径包含中文的问题
May 10 #Python
Python之文字转图片方法
May 10 #Python
You might like
无法在发生错误时创建会话,请检查 PHP 或网站服务器日志,并正确配置 PHP 安装最快的解决办法
2010/08/01 PHP
yii上传文件或图片实例
2014/04/01 PHP
CodeIgniter输出中文乱码的两种解决办法
2014/06/12 PHP
php函数mkdir实现递归创建层级目录
2016/10/27 PHP
ThinkPHP删除栏目(实现批量删除栏目)
2017/06/21 PHP
PHP文字转图片功能原理与实现方法分析
2017/08/31 PHP
PHP的简单跳转提示的实现详解
2019/03/14 PHP
jquery 追加tr和删除tr示例代码
2013/09/12 Javascript
在父页面得到zTree已选中的节点的方法
2015/02/12 Javascript
jQuery仿淘宝网产品品牌隐藏与显示效果
2015/09/01 Javascript
详解JavaScript函数
2015/12/01 Javascript
JQuery 进入页面默认给已赋值的复选框打钩
2017/03/23 jQuery
JS实现字符串去重及数组去重的方法示例
2018/04/21 Javascript
微信小程序签到功能
2018/10/31 Javascript
Vue中rem与postcss-pxtorem的应用详解
2019/11/20 Javascript
element中el-container容器与div布局区分详解
2020/05/13 Javascript
jQuery 添加元素和删除元素的方法
2020/07/15 jQuery
Node 使用express-http-proxy 做api网关的实现
2020/10/15 Javascript
手把手教你如何编译打包video.js
2020/12/09 Javascript
python查找第k小元素代码分享
2013/12/18 Python
在Django框架中设置语言偏好的教程
2015/07/27 Python
python web框架学习笔记
2016/05/03 Python
Python中几种导入模块的方式总结
2017/04/27 Python
Windows 8.1 64bit下搭建 Scrapy 0.22 环境
2018/11/18 Python
python实现简单的五子棋游戏
2020/09/01 Python
娇韵诗加拿大官网:Clarins加拿大
2017/11/20 全球购物
SK-II神仙水美国官网:SK-II美国
2020/02/25 全球购物
《水上飞机》教学反思
2014/04/10 职场文书
赡养老人协议书
2014/04/21 职场文书
保护环境的标语
2014/06/09 职场文书
毕业实习指导教师评语
2014/12/31 职场文书
2015年评职称工作总结范文
2015/04/20 职场文书
婚庆公司开业主持词
2015/06/30 职场文书
大学班干部竞选稿
2015/11/20 职场文书
三严三实·严以用权心得体会
2016/01/12 职场文书
python中数组和列表的简单实例
2022/03/25 Python