python+mongodb数据抓取详细介绍


Posted in Python onOctober 25, 2017

分享点干货!!!

Python数据抓取分析

编程模块:requests,lxml,pymongo,time,BeautifulSoup

首先获取所有产品的分类网址:

def step():
  try:
    headers = {
      。。。。。
      }
    r = requests.get(url,headers,timeout=30)
    html = r.content
    soup = BeautifulSoup(html,"lxml")
    url = soup.find_all(正则表达式)
    for i in url:
      url2 = i.find_all('a')
      for j in url2:
         step1url =url + j['href']
         print step1url
         step2(step1url)
  except Exception,e:
    print e

我们在产品分类的同时需要确定我们所访问的地址是产品还是又一个分类的产品地址(所以需要判断我们访问的地址是否含有if判断标志):

def step2(step1url):
  try:
    headers = {
      。。。。
      }
    r = requests.get(step1url,headers,timeout=30)
    html = r.content
    soup = BeautifulSoup(html,"lxml")
    a = soup.find('div',id='divTbl')
    if a:
      url = soup.find_all('td',class_='S-ITabs')
      for i in url:
        classifyurl = i.find_all('a')
        for j in classifyurl:
           step2url = url + j['href']
           #print step2url
           step3(step2url)
    else:
      postdata(step1url)

当我们if判断后为真则将第二页的分类网址获取到(第一个步骤),否则执行postdata函数,将网页产品地址抓取!

def producturl(url):
  try:
    p1url = doc.xpath(正则表达式)
    for i in xrange(1,len(p1url) + 1):
      p2url = doc.xpath(正则表达式)
      if len(p2url) > 0:
        producturl = url + p2url[0].get('href')
        count = db[table].find({'url':producturl}).count()
        if count <= 0:
            sn = getNewsn()
            db[table].insert({"sn":sn,"url":producturl})
            print str(sn) + 'inserted successfully'
        else:
            'url exist'

  except Exception,e:
    print e

其中为我们所获取到的产品地址并存入mongodb中,sn作为地址的新id。

下面我们需要在mongodb中通过新id索引来获取我们的网址并进行访问,对产品进行数据分析并抓取,将数据更新进数据库内!

其中用到最多的BeautifulSoup这个模块,但是对于存在于js的价值数据使用BeautifulSoup就用起来很吃力,所以对于js中的数据我推荐使用xpath,但是解析网页就需要用到HTML.document_fromstring(url)方法来解析网页。

对于xpath抓取价值数据的同时一定要细心!如果想了解xpath就在下面留言,我会尽快回答!

def parser(sn,url):
  try:
    headers = {
      。。。。。。
      }
    r = requests.get(url, headers=headers,timeout=30)
    html = r.content
    soup = BeautifulSoup(html,"lxml")
    dt = {}
    #partno
    a = soup.find("meta",itemprop="mpn")
    if a:
      dt['partno'] = a['content']
    #manufacturer
    b = soup.find("meta",itemprop="manufacturer")
    if b:
      dt['manufacturer'] = b['content']
    #description
    c = soup.find("span",itemprop="description")
    if c:
      dt['description'] = c.get_text().strip()
    #price
    price = soup.find("table",class_="table table-condensed occalc_pa_table")
    if price:
      cost = {}
      for i in price.find_all('tr'):
        if len(i) > 1:
          td = i.find_all('td')
          key=td[0].get_text().strip().replace(',','')
          val=td[1].get_text().replace(u'\u20ac','').strip()
          if key and val:
            cost[key] = val
      if cost:
        dt['cost'] = cost
        dt['currency'] = 'EUR'
    #quantity
    d = soup.find("input",id="ItemQuantity")
    if d:
      dt['quantity'] = d['value']
    #specs
    e = soup.find("div",class_="row parameter-container")
    if e:
      key1 = []
      val1= []
      for k in e.find_all('dt'):
        key = k.get_text().strip().strip('.')
        if key:
          key1.append(key)
      for i in e.find_all('dd'):
        val = i.get_text().strip()
        if val:
          val1.append(val)
      specs = dict(zip(key1,val1))
    if specs:
      dt['specs'] = specs
      print dt
      
    if dt:
      db[table].update({'sn':sn},{'$set':dt})
      print str(sn) + ' insert successfully'
      time.sleep(3)
    else:
      error(str(sn) + '\t' + url)
  except Exception,e:
    error(str(sn) + '\t' + url)
    print "Don't data!"

最后全部程序运行,将价值数据分析处理并存入数据库中!

以上就是本文关于python+mongodb数据抓取详细介绍的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站:Python探索之创建二叉树、Python探索之修改Python搜索路径、浅谈python中copy和deepcopy中的区别等,有什么问题,欢迎留言一起交流讨论。

Python 相关文章推荐
Python 遍历列表里面序号和值的方法(三种)
Feb 17 Python
python 重命名轴索引的方法
Nov 10 Python
selenium+python自动化测试之使用webdriver操作浏览器的方法
Jan 23 Python
python学习开发mock接口
Apr 28 Python
python递归法实现简易连连看小游戏
Mar 25 Python
pytorch中的上采样以及各种反操作,求逆操作详解
Jan 03 Python
python TCP包注入方式
May 05 Python
踩坑:pytorch中eval模式下结果远差于train模式介绍
Jun 23 Python
python 匿名函数与三元运算学习笔记
Oct 23 Python
Python列表元素删除和remove()方法详解
Jan 04 Python
Python3利用openpyxl读写Excel文件的方法实例
Feb 03 Python
如何用六步教会你使用python爬虫爬取数据
Apr 06 Python
python装饰器实例大详解
Oct 25 #Python
Python3 模块、包调用&amp;路径详解
Oct 25 #Python
Python探索之创建二叉树
Oct 25 #Python
Python探索之修改Python搜索路径
Oct 25 #Python
python中 logging的使用详解
Oct 25 #Python
python下载文件记录黑名单的实现代码
Oct 24 #Python
基于python中staticmethod和classmethod的区别(详解)
Oct 24 #Python
You might like
PHP实现XML与数据格式进行转换类实例
2015/07/29 PHP
php实现按天数、星期、月份查询的搜索框
2016/05/02 PHP
Laravel使用模型实现like模糊查询的例子
2019/10/24 PHP
JQuery开发的数独游戏代码
2010/10/29 Javascript
自己动手开发jQuery插件教程
2011/08/25 Javascript
jQuery lazyLoad图片延迟加载插件的优化改造方法分享
2013/08/13 Javascript
JS实现图片产生波纹一样flash效果的方法
2015/02/27 Javascript
jQuery基于muipicker实现仿ios时间选择
2016/02/22 Javascript
jQuery实现模拟flash头像裁切上传功能示例
2016/12/11 Javascript
JS轮播图实现简单代码
2021/02/19 Javascript
VueJS 集成 Medium Editor的示例代码 (自定义编辑器按钮)
2017/08/24 Javascript
JavaScript变量声明var,let.const及区别浅析
2018/04/23 Javascript
JS中实现隐藏部分姓名或者电话号码的代码
2018/07/17 Javascript
js中async函数结合promise的小案例浅析
2019/04/14 Javascript
小试小程序云开发(小结)
2019/06/06 Javascript
VsCode与Node.js知识点详解
2019/09/05 Javascript
JavaScript实现Tab选项卡切换
2020/02/13 Javascript
[02:57]DOTA2亚洲邀请赛小组赛第四日 赛事回顾
2015/02/02 DOTA
Python实现更改图片尺寸大小的方法(基于Pillow包)
2016/09/19 Python
python爬取拉勾网职位数据的方法
2018/01/24 Python
TensorFlow深度学习之卷积神经网络CNN
2018/03/09 Python
人脸识别经典算法一 特征脸方法(Eigenface)
2018/03/13 Python
amazeui树节点自动展开折叠面板并选中第一个树节点的实现
2020/08/24 HTML / CSS
Hello Molly美国:女性时尚在线
2019/08/26 全球购物
奥地利购买珠宝和手表网站:ELLA JUWELEN
2019/09/03 全球购物
Groupon荷兰官方网站:高达70%的折扣
2019/11/01 全球购物
JYSK加拿大:购买家具、床垫、家居装饰等
2020/02/14 全球购物
小学教师自我鉴定
2013/11/07 职场文书
开朗女孩的自我评价
2014/02/10 职场文书
反洗钱宣传活动总结
2014/08/26 职场文书
无房证明范本
2014/09/17 职场文书
教师批评与自我批评范文
2014/10/15 职场文书
2015年语文教研组工作总结
2015/05/23 职场文书
python 如何做一个识别率百分百的OCR
2021/05/29 Python
win10清理dns缓存
2022/04/19 数码科技
选购到合适的激光打印机
2022/04/21 数码科技