python 调用API接口 获取和解析 Json数据


Posted in Python onSeptember 28, 2020

任务背景:

调用API接口数据,抽取我们所需类型的数据,并写入指定mysql数据库。

先从宏观上看这个任务,并对任务进行分解:

step1:需要学习python下的通过url读取数据的方式;

step2:数据解析,也是核心部分,数据格式从python角度去理解,是字典?列表?还是各种嵌套?

step3:连接mysql数据库,将数据写入。

从功能上看,该数据获取程序可以分为3个方法,即step1对应方法request_data(),step2对应方法parse_data(),step3对应data_to_db()。

第一轮,暂不考虑异常,只考虑正常状态下的功能实现。

1、先看request_data():

import requests
 def request_data(url): 
 req = requests.get(url, timeout=30) # 请求连接
 req_jason = req.json() # 获取数据
 return req_jason

入参:url地址;return:获取到的数据。

2、然后看parse_data():

不同的API接口下的数据格式各不相同,需要先理清,打开之后密密麻麻一大串,有的可能连完整的一轮数据间隔在哪都不知道,这时候可以巧用符号{ [ , ] }辅助判断。

梳理之后,发现本接口下的数据格式为,最外层为字典,我们所需的数据在第一个key“data”下,data对应的value为列表,列表中的每个元素为字典,字典中的部分键值

即为我们需要的内容。这样,就明确了我们的数据结构为字典套列表,列表再套字典的格式,最后一层的字典还存在一键多值(比如“weather”)的情况。

当然,还有懒人方法,就是百度json在线解析格式化。

摘取部分数据如下:{"data":[{"timestamp_utc":"2020-08-31T08:00:00","weather":{"icon":"c02d","code":802,
wind_dir":336,"clouds_hi":0,"precip":0.0625},{"timestamp_utc":"2020-08-31T08:00:00","weather":{"icon":"c02d","code":802,},
wind_dir":336,"clouds_hi":0,"precip":0.0625],"city_name":"Dianbu","lon":117.58,"timezone":"Asia\/Shanghai","lat":31.95,"country_code":"CN"}

def parse_data(req_jason):
 data_trunk = req_jason['data']# 获取data键值下的列表
 time_now = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S") #获取当前时刻
 for i in range(len(data_trunk)):
  data_unit = data_trunk[i] # 依次获取列表下第i个元素即字典
  del data_unit['weather'] # 删除该字典中不需要的一键多值的key和value,不删除的话会影响后续的dataframe转换,但是,如果该键值需要的话,需要采取其他处理方式
  df = pd.DataFrame([data_unit]) # 将删除键值后的字典转为datafrme
  list_need = ['timestamp_utc', 'wind_dir', 'precip','clouds_hi'] # 列出我们需要的列
  df_need = df[list_need] # 保留df中需要的列  10  df_need.insert(0, 'update_time', time_now) #表格中还需额外增加获取数据的当前时间,并且需要放在dataframe的第一列

备注:数据插入数据库,有两种方式,一种是采用insert的sql语句,采用字典的形式插入,另一种是采用dataframe的方式,采用pandas中的to_sql方法。本案例选择了后者,所以在数据解析时,将字典数据转成dataframe格式。

入参:获取到的数据;return值:无

运行以后,发现这样的程序存在一些问题:就是这个for循环括起来的过多,导致写数据库时是一条条写入而不是一整块写入,会影响程序效率,所以需要对程序进行如下修改:

def parse_data(req_jason):
 data_trunk = req_jason['data']# 获取data键值下的列表
 time_now = datetime.datetime.now().strftime("%Y-%m-%d %H:%M:%S") #获取当前时刻
 for i in range(len(data_trunk)):
  data_unit = data_trunk[i] # 依次获取列表下第i个元素即字典
  del data_unit['weather'] # 删除该字典中不需要的一键多值的key和value,不删除的话会影响后续的dataframe转换,但是,如果该键值需要的话,需要采取其他处理方式
 df = pd.DataFrame(data_trunk) # 将删除键值后的整个列表套字典转为datafrme
 list_need = ['timestamp_utc', 'wind_dir', 'precip','clouds_hi'] # 列出我们需要的列
 df_need = df[list_need] # 保留df中需要的列
 df_need.insert(0, 'update_time', time_now) #表格中还需额外增加获取数据的当前时间,并且需要放在dataframe的第一列

也就是从第7行之后跳出循环;

如果觉得for循环影响整体美观,也可以用map代替,将代码第4/5/6行改为如下代码,不过性能上来说可能还是for循环更好,具体对比可看其他博主的测试,或者自己测试下运行时间。

map(data_trunk.pop, ['weather'])

3. 最后就是data_to_sql():

def data_to_sql(df):
 table = 'request_data_api'
 engine = create_engine("mysql+pymysql://" + 'root' + ":" + '123' + "@" + 'localhost' + ":" + '3306' + "/" + 'test' + "?charset=utf8")
 df.to_sql(name=table, con=engine, if_exists='append',
   index=False, index_label=False)

入参:dataframe类型数据。

当当当,正常部分已完成,就下来就需要想象各种异常以及处理对策。

第二轮,想象各种异常以及异常的记录与处理对策。

1.读取url后,获取不到数据 → 休息几秒,尝试再次重连获取

2.连接数据库异常 → 数据库可能关闭,尝试重新ping,

3.写入数据库的内容为空 → 记录异常,放弃入库

第三轮,让程序定时跑起来。

方法一:在代码中采用apscheduler下的cron功能(trigger='cron‘,类似linux下的crontab)实现定时运行(当然,apscheduler还有另一种trigger=‘interval'模式);

方法二:在linux下的crontab增加定时任务。

具体可以看别的帖子。

以上就是python 调用API接口 获取和解析 Json数据的详细内容,更多关于python 解析数据的资料请关注三水点靠木其它相关文章!

Python 相关文章推荐
Python的迭代器和生成器
Jul 29 Python
Python中对象的引用与复制代码示例
Dec 04 Python
python 连接各类主流数据库的实例代码
Jan 30 Python
python使用__slots__让你的代码更加节省内存
Sep 05 Python
对pandas的层次索引与取值的新方法详解
Nov 06 Python
Python 正则表达式匹配字符串中的http链接方法
Dec 25 Python
Python 3 实现定义跨模块的全局变量和使用教程
Jul 07 Python
Python时间序列缺失值的处理方法(日期缺失填充)
Aug 11 Python
python通过txt文件批量安装依赖包的实现步骤
Aug 13 Python
Python openpyxl模块原理及用法解析
Jan 19 Python
Python操作MongoDb数据库流程详解
Mar 05 Python
keras 获取某层输出 获取复用层的多次输出实例
May 23 Python
记录一下scrapy中settings的一些配置小结
Sep 28 #Python
使用scrapy ImagesPipeline爬取图片资源的示例代码
Sep 28 #Python
详解scrapy内置中间件的顺序
Sep 28 #Python
Python爬虫代理池搭建的方法步骤
Sep 28 #Python
浅析python 通⽤爬⾍和聚焦爬⾍
Sep 28 #Python
Scrapy 配置动态代理IP的实现
Sep 28 #Python
Scrapy中如何向Spider传入参数的方法实现
Sep 28 #Python
You might like
短波问题解答
2021/02/28 无线电
windows下PHP APACHE MYSQ完整配置
2007/01/02 PHP
php 记录进行累加并显示总时长为秒的结果
2011/11/04 PHP
PHPEXCEL 使用小记
2013/01/06 PHP
php图片的裁剪与缩放生成符合需求的缩略图
2013/01/11 PHP
thinkphp框架page类与bootstrap分页(美化)
2017/06/25 PHP
一个简单的弹性返回顶部JS代码实现介绍
2013/06/09 Javascript
使用jquery prev()方法找到同级的前一个元素
2014/07/11 Javascript
javascript中createElement的两种创建方式
2015/05/14 Javascript
分享几种比较简单实用的JavaScript tabel切换
2015/12/31 Javascript
jquery form表单获取内容以及绑定数据
2016/02/24 Javascript
基于jQuery实现仿微博发布框字数提示
2016/07/27 Javascript
AngularJS指令与指令之间的交互功能示例
2016/12/14 Javascript
js+canvas实现动态吃豆人效果
2017/03/22 Javascript
JS作用域链详解
2017/06/26 Javascript
vue路由导航守卫和请求拦截以及基于node的token认证的方法
2019/04/07 Javascript
详解vuex持久化插件解决浏览器刷新数据消失问题
2019/04/15 Javascript
详解在Angular4中使用ng2-baidu-map的方法
2019/06/19 Javascript
MySQL最常见的操作语句小结
2015/05/07 Python
python获得文件创建时间和修改时间的方法
2015/06/30 Python
python类的方法属性与方法属性的动态绑定代码详解
2017/12/27 Python
Python如何基于Tesseract实现识别文字功能
2020/06/05 Python
Jimmy Choo美国官网:周仰杰鞋子品牌
2018/06/08 全球购物
新闻网站实习自我鉴定
2013/09/25 职场文书
毕业生在校学习的自我评价分享
2013/10/08 职场文书
经贸日语专业个人求职信
2013/12/13 职场文书
校运会广播稿100字
2014/01/27 职场文书
经典婚礼主持开场白
2014/03/13 职场文书
服务标兵事迹材料
2014/05/04 职场文书
诚信考试标语
2014/06/24 职场文书
工作检讨书范文
2015/01/23 职场文书
鲁迅故里导游词
2015/02/05 职场文书
Nginx URL重写rewrite机制原理及使用实例
2021/04/01 Servers
写一个Python脚本自动爬取Bilibili小视频
2021/04/24 Python
Pandas加速代码之避免使用for循环
2021/05/30 Python
详解Redis在SpringBoot工程中的综合应用
2021/10/16 Redis