详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果


Posted in Python onMay 07, 2019

上一篇内容,已经学会了使用简单的语句对网页进行抓取。接下来,详细看下urlopen的两个重要参数url和data,学习如何发送数据data

一、urlopen的url参数 Agent

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

url不仅可以是一个字符串,例如:http://www.baidu.com。url也可以是一个Request对象,这就需要我们先定义一个Request对象,然后将这个Request对象作为urlopen的参数使用,方法如下:

# -*- coding: UTF-8 -*-
from urllib import request

if __name__ == "__main__":
  req = request.Request("http://fanyi.baidu.com/")
  response = request.urlopen(req)
  html = response.read()
  html = html.decode("utf-8")
  print(html)

同样,运行这段代码同样可以得到网页信息。可以看一下这段代码和上个笔记中代码的不同,对比一下就明白了。

urlopen()返回的对象,可以使用read()进行读取,同样也可以使用geturl()方法、info()方法、getcode()方法。

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

geturl()返回的是一个url的字符串;

info()返回的是一些meta标记的元信息,包括一些服务器的信息;

getcode()返回的是HTTP的状态码,如果返回200表示请求成功。

关于META标签和HTTP状态码的内容可以自行百度百科,里面有很详细的介绍。

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

了解到这些,我们就可以进行新一轮的测试,新建文件名urllib_test04.py,编写如下代码:

# -*- coding: UTF-8 -*-
from urllib import request

if __name__ == "__main__":
  req = request.Request("http://fanyi.baidu.com/")
  response = request.urlopen(req)
  print("geturl打印信息:%s"%(response.geturl()))
  print('**********************************************')
  print("info打印信息:%s"%(response.info()))
  print('**********************************************')
  print("getcode打印信息:%s"%(response.getcode()))

可以得到如下运行结果:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

二、urlopen的data参数

我们可以使用data参数,向服务器发送数据。根据HTTP规范,GET用于信息获取,POST是向服务器提交数据的一种请求,再换句话说:

从客户端向服务器提交数据使用POST;

从服务器获得数据到客户端使用GET(GET也可以提交,暂不考虑)。

如果没有设置urlopen()函数的data参数,HTTP请求采用GET方式,也就是我们从服务器获取信息,如果我们设置data参数,HTTP请求采用POST方式,也就是我们向服务器传递数据。

data参数有自己的格式,它是一个基于application/x-www.form-urlencoded的格式,具体格式我们不用了解, 因为我们可以使用urllib.parse.urlencode()函数将字符串自动转换成上面所说的格式。

三、发送data实例

向有道翻译发送data,得到翻译结果。

1.打开有道翻译界面,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

2.鼠标右键检查,也就是审查元素,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

3.选择右侧出现的Network,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

4.在左侧输入翻译内容,输入Jack,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

5.点击自动翻译按钮,我们就可以看到右侧出现的内容,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

6.点击上图红框中的内容,查看它的信息,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

7.记住这些信息,这是我们一会儿写程序需要用到的。

新建文件translate_test.py,编写如下代码:

# -*- coding: UTF-8 -*-
from urllib import request
from urllib import parse
import json

if __name__ == "__main__":
  #对应上图的Request URL
  Request_URL = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=https://www.baidu.com/link'
  #创建Form_Data字典,存储上图的Form Data
  Form_Data = {}
  Form_Data['type'] = 'AUTO'
  Form_Data['i'] = 'Jack'
  Form_Data['doctype'] = 'json'
  Form_Data['xmlVersion'] = '1.8'
  Form_Data['keyfrom'] = 'fanyi.web'
  Form_Data['ue'] = 'ue:UTF-8'
  Form_Data['action'] = 'FY_BY_CLICKBUTTON'
  #使用urlencode方法转换标准格式
  data = parse.urlencode(Form_Data).encode('utf-8')
  #传递Request对象和转换完格式的数据
  response = request.urlopen(Request_URL,data)
  #读取信息并解码
  html = response.read().decode('utf-8')
  #使用JSON
  translate_results = json.loads(html)
  #找到翻译结果
  translate_results = translate_results['translateResult'][0][0]['tgt']
  #打印翻译信息
  print("翻译的结果是:%s" % translate_results)

这样我们就可以查看翻译的结果了,如下图所示:

详解Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果

JSON是一种轻量级的数据交换格式,我们需要从爬取到的内容中找到JSON格式的数据,这里面保存着我们想要的翻译结果,再将得到的JSON格式的翻译结果进行解析,得到我们最终想要的样子:杰克。

以上所述是小编给大家介绍的Python3网络爬虫(二):利用urllib.urlopen向有道翻译发送数据获得翻译结果详解整合,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对三水点靠木网站的支持!

Python 相关文章推荐
利用Fn.py库在Python中进行函数式编程
Apr 22 Python
Python判断某个用户对某个文件的权限
Oct 13 Python
python使用xlrd与xlwt对excel的读写和格式设定
Jan 21 Python
Python学习笔记之if语句的使用示例
Oct 23 Python
Python 带有参数的装饰器实例代码详解
Dec 06 Python
python遍历小写英文字母的方法
Jan 02 Python
python 实现一次性在文件中写入多行的方法
Jan 28 Python
python使用turtle绘制国际象棋棋盘
May 23 Python
Python正则表达式匹配数字和小数的方法
Jul 03 Python
python简单区块链模拟详解
Jul 03 Python
Python 的字典(Dict)是如何存储的
Jul 05 Python
python+selenium+Chrome options参数的使用
Mar 18 Python
python对象与json相互转换的方法
May 07 #Python
python使用threading.Condition交替打印两个字符
May 07 #Python
python实现银联支付和支付宝支付接入
May 07 #Python
详解Python 爬取13个旅游城市,告诉你五一大家最爱去哪玩?
May 07 #Python
Scrapy-Redis结合POST请求获取数据的方法示例
May 07 #Python
Python数据类型之Set集合实例详解
May 07 #Python
Python数据类型之Dict字典实例详解
May 07 #Python
You might like
盘点被央视点名过的日本动画电影 一部比一部强
2020/03/08 日漫
Php Mssql操作简单封装支持存储过程
2009/12/11 PHP
浅析ThinkPHP中的pathinfo模式和URL重写
2014/01/06 PHP
php中Session的生成机制、回收机制和存储机制探究
2014/08/19 PHP
php利用imagemagick实现复古老照片效果实例
2017/02/16 PHP
利用php + Laravel如何实现部署自动化详解
2017/10/11 PHP
Laravel5.1框架路由分组用法实例分析
2020/01/04 PHP
JavaScript中的分号插入机制详细介绍
2015/02/11 Javascript
javascript+canvas实现刮刮卡抽奖效果
2015/07/29 Javascript
AngularJS  双向数据绑定详解简单实例
2016/10/20 Javascript
遍历json 对象的属性并且动态添加属性的实现
2016/12/02 Javascript
Angular ng-repeat遍历渲染完页面后执行其他操作详细介绍
2016/12/13 Javascript
js常用DOM方法详解
2017/02/04 Javascript
老生常谈ES6中的类
2017/07/31 Javascript
Vue组件模板形式实现对象数组数据循环为树形结构(实例代码)
2017/07/31 Javascript
Vue内容分发slot(全面解析)
2017/08/19 Javascript
vue生命周期的探索
2019/04/03 Javascript
python正则表达式re模块详细介绍
2014/05/29 Python
Python中random模块生成随机数详解
2016/03/10 Python
Django ModelForm组件使用方法详解
2019/07/23 Python
python3实现的zip格式压缩文件夹操作示例
2019/08/17 Python
python中的subprocess.Popen()使用详解
2019/12/25 Python
Python字符串格式化常用手段及注意事项
2020/06/17 Python
Jmeter HTTPS接口测试证书导入过程图解
2020/07/22 Python
对CSS3选择器的研究(详解)
2016/09/16 HTML / CSS
const char*, char const*, char*const的区别是什么
2014/07/09 面试题
UNIX特点都有哪些
2016/04/05 面试题
写好自荐信要注意的问题
2013/11/10 职场文书
模特职业生涯规划范文
2014/02/26 职场文书
安全演讲稿大全
2014/05/09 职场文书
机械加工与数控专业自荐书
2014/06/04 职场文书
课外活动总结
2015/02/04 职场文书
酒店圣诞节活动总结
2015/05/06 职场文书
爱国电影观后感
2015/06/19 职场文书
导游词之烟台威海蓬莱
2019/11/14 职场文书
多属性、多分类MySQL模式设计
2021/04/05 MySQL