Python爬取数据并实现可视化代码解析


Posted in Python onAugust 12, 2020

这次主要是爬了京东上一双鞋的相关评论:将数据保存到excel中并可视化展示相应的信息

主要的python代码如下:

文件1

#将excel中的数据进行读取分析
import openpyxl
import matplotlib.pyplot as pit #数据统计用的
wk=openpyxl.load_workbook('销售数据.xlsx')
sheet=wk.active #获取活动表
#获取最大行数和最大列数
rows=sheet.max_row
cols=sheet.max_column
lst=[] #用于存储鞋子码数
for i in range (2,rows+1):
  size=sheet.cell(i,3).value
  lst.append(size)
#以上已经将excel中的数据读取完毕
#一下操作就你行统计不同码数的数量
'''python中有一个数据结构叫做字典,使用鞋码做key,使用销售数量做value'''
dic_size={}
for item in lst:
  dic_size[item]=0

for item in lst:
  for size in dic_size:
    #遍历字典
    if item==size:
      dic_size[size]+=1
      break
for item in dic_size:
  print(item,dic_size[item])
#弄成百分比的形式
lst_total=[]
for item in dic_size:
  lst_total.append([item,dic_size[item],dic_size[item]/160*1.0])

#接下来进行数据的可视化(进行画饼操作)
labels=[item[0] +'码'for item in lst_total] #使用列表生成式,得到饼图的标签
fraces=[item[2] for item in lst_total] #饼图中的数据源
pit.rcParams['font.family']=['SimHei'] #单独的表格乱码的处理方式
pit.pie(x=fraces,labels=labels,autopct='%1.1f%%')
#pit.show()进行结果的图片的展示
pit.savefig('图.jpg')

文件2

#所涉及到的是requests和openpyxl数据的存储和数据的清洗以及统计然后就是matplotlib进行数据的可视化
#静态数据点击element中点击发现在html中,服务器已经渲染好的内容,直接发给浏览器,浏览器解释执行,
#动态数据:如果点击下一页。我们的地址栏(加后缀但是前面的地址栏没变也算)(也可以点击2和3页)没有发生任何变化说明是动态数据,说明我们的数据是后来被渲染到html中的。他的数据根本不在html中的。
#动态查看network然后用的url是network里面的headers
#安装第三方模块输入cmd之后pip install 加名字例如requests
import requests
import re
import time
import json
import openpyxl #用于操作 excel文件的
headers = {'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'}#创建头部信息
def get_comments(productId,page):
  url = "https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98&productId={0}&score=0&sortType=5&page={1}&pageSize=10&isShadowSku=0&fold=1".format(productId,page)
  resp = requests.get(url, headers=headers)
  s=resp.text.replace('fetchJSON_comment98(','')#进行替换操作。获取到所需要的相应的json,也就是去掉前后没用的东西
  s=s.replace(');','')
  json_data=json.loads(s)#进行数据json转换
  return json_data

#获取最大页数
def get_max_page(productId):
  dis_data=get_comments(productId,0)#调用刚才写的函数进行向服务器的访问请求,获取字典数据
  return dis_data['maxPage']#获取他的最大页数。每一页都有最大页数

#进行数据提取
def get_info(productId):
  max_page=get_max_page(productId)
  lst=[]#用于存储提取到的商品数据
  for page in range(1,max_page+1):
    #获取没页的商品评论
    comments=get_comments(productId,page)
    comm_list=comments['comments']#根据comnents获取到评论的列表(每页有10条评论)
    #遍历评论列表,获取其中的相应的数据
    for item in comm_list:
      #每条评论分别是一字典。在继续通过key来获取值
      content=item['content']
      color=item['productColor']
      size=item['productSize']
      lst.append([content,color,size])#将每条评论添加到列表当中
    time.sleep(3)#防止被京东封ip进行一个时间延迟。防止访问次数太频繁
  save(lst)

def save(lst):
  #把爬取到的数据进行存储,保存到excel中
  wk=openpyxl.Workbook()#用于创建工作簿对象
  sheet=wk.active #获取活动表(一个工作簿有三个表)
  #遍历列表将数据添加到excel中。列表中的一条数据在表中是一行
  biaotou='评论','颜色','大小'
  sheet.append(biaotou)
  for item in lst:
    sheet.append(item)
  #将excel保存到磁盘上
  wk.save('销售数据.xlsx')


if __name__=='__main__':
  productId='66749071789'
  get_info(productId)
  print("ok")

实现的效果如下:

Python爬取数据并实现可视化代码解析

Python爬取数据并实现可视化代码解析

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持三水点靠木。

Python 相关文章推荐
Python使用百度API上传文件到百度网盘代码分享
Nov 08 Python
Python的Django框架中的select_related函数对QuerySet 查询的优化
Apr 01 Python
python开发之基于thread线程搜索本地文件的方法
Nov 11 Python
浅析python中的分片与截断序列
Aug 09 Python
python使用正则表达式替换匹配成功的组
Nov 17 Python
Python 内置函数memoryview(obj)的具体用法
Nov 23 Python
Python Django 命名空间模式的实现
Aug 09 Python
tensorflow的计算图总结
Jan 12 Python
Python爬虫使用bs4方法实现数据解析
Aug 25 Python
python 监控logcat关键字功能
Sep 04 Python
Python使用MapReduce进行简单的销售统计
Apr 22 Python
Python中tqdm的使用和例子
Sep 23 Python
Python下载网易云歌单歌曲的示例代码
Aug 12 #Python
Python爬取12306车次信息代码详解
Aug 12 #Python
Python读取xlsx数据生成图标代码实例
Aug 12 #Python
Idea安装python显示无SDK问题解决方案
Aug 12 #Python
Python selenium如何打包静态网页并下载
Aug 12 #Python
Python selenium爬取微信公众号文章代码详解
Aug 12 #Python
PyQt5 QDockWidget控件应用详解
Aug 12 #Python
You might like
Linux下将excel数据导入到mssql数据库中的方法
2010/02/08 PHP
解析dedeCMS验证码的实现代码
2013/06/07 PHP
php5.5中类级别的常量使用介绍
2013/10/02 PHP
PHP魔术方法的使用示例
2015/06/23 PHP
PHP 获取ip地址代码汇总
2015/07/05 PHP
PHP/ThinkPHP实现批量打包下载文件的方法示例
2017/07/31 PHP
Jquery cookie操作代码
2010/03/14 Javascript
20个实用的JavaScript技巧分享
2014/11/28 Javascript
AngularJS语法详解(续)
2015/01/23 Javascript
javascript实现别踩白块儿小游戏程序
2015/11/22 Javascript
javascript 定时器工作原理分析
2016/12/03 Javascript
javascript图片预览和上传(兼容IE)
2017/03/15 Javascript
解决canvas画布使用fillRect()时高度出现双倍效果的问题
2017/08/03 Javascript
如何将HTML字符转换为DOM节点并动态添加到文档中详解
2018/08/19 Javascript
Vue自定义指令上报Google Analytics事件统计的方法
2019/02/25 Javascript
vue使用websocket的方法实例分析
2019/06/22 Javascript
node解析修改nginx配置文件操作实例分析
2019/11/06 Javascript
深度解读vue-resize的具体用法
2020/07/08 Javascript
设计模式中的原型模式在Python程序中的应用示例
2016/03/02 Python
对python3 sort sorted 函数的应用详解
2019/06/27 Python
python实现几种归一化方法(Normalization Method)
2019/07/31 Python
python查看数据类型的方法
2019/10/12 Python
python3利用Axes3D库画3D模型图
2020/03/25 Python
python设置表格边框的具体方法
2020/07/17 Python
Jupyter安装拓展nbextensions及解决官网下载慢的问题
2021/03/03 Python
adidas澳大利亚官方网站:adidas Australia
2018/04/15 全球购物
ZWILLING双立人英国网上商店:德国刀具锅具厨具品牌
2018/05/15 全球购物
莫斯科隐形眼镜网上商店:Linzi
2019/07/22 全球购物
Myprotein瑞士官方网站:运动营养和健身网上商店
2019/09/25 全球购物
大学生个人求职信范文
2013/09/21 职场文书
母亲80寿诞答谢词
2014/01/16 职场文书
学校门卫岗位职责范本
2014/06/30 职场文书
导师对论文的学术评语
2015/01/04 职场文书
2015年五四青年节演讲稿
2015/03/18 职场文书
2015秋季小学开学寄语
2015/05/27 职场文书
蓝天保卫战收官在即 :15行业将开展环保分级评价
2019/07/19 职场文书