教你用python3根据关键词爬取百度百科的内容


Posted in Python onAugust 18, 2016

前言

关于python版本,我一开始看很多资料说python2比较好,因为很多库还不支持3,但是使用到现在为止觉得还是pythin3比较好用,因为编码什么的问题,觉得2还是没有3方便。而且在网上找到的2中的一些资料稍微改一下也还是可以用。

好了,开始说爬百度百科的事。

这里设定的需求是爬取北京地区n个景点的全部信息,n个景点的名称是在文件中给出的。没有用到api,只是单纯的爬网页信息。 

1、根据关键字获取url

由于只需要爬取信息,而且不涉及交互,可以使用简单的方法而不需要模拟浏览器。

可以直接

<strong>http://baike.baidu.com/search/word?word="guanjianci"</strong>
<strong>for </strong>l <strong>in </strong>view_names:
 <strong>'''http://baike.baidu.com/search/word?word=''' </strong><em># 得到url的方法
</em><em> </em>name=urllib.parse.quote(l)
 name.encode(<strong>'utf-8'</strong>)
 url=<strong>'http://baike.baidu.com/search/word?word='</strong>+name

这里要注意关键词是中午所以要注意编码问题,由于url中不能出现空格,所以需要用quote函数处理一下。

关于quote():

在 Python2.x 中的用法是:urllib.quote(text)  。Python3.x 中是urllib.parse.quote(text)   。按照标准,URL只允许一部分ASCII 字符(数字字母和部分符号),其他的字符(如汉字)是不符合URL标准的。所以URL中使用其他字符就需要进行URL编码。URL中传参数的部分(query String),格式是:name1=value1&name2=value2&name3=value3。假如你的name或者value值中的『&』或者『=』等符号,就当然会有问题。所以URL中的参数字符串也需要把『&=』等符号进行编码。URL编码的方式是把需要编码的字符转化为%xx的形式。通常URL编码是基于UTF-8的(当然这和浏览器平台有关)

例子:

比如『我,unicode 为 0x6211,UTF-8编码为0xE60x880x91,URL编码就是 %E6%88%91。

Python的urllib库中提供了quotequote_plus两种方法。这两种方法的编码范围不同。不过不用深究,这里用quote就够了。 

2、下载url

用urllib库轻松实现,见下面的代码中def download(self,url) 

3、利用Beautifulsoup获取html 

4、数据分析

百科中的内容是并列的段,所以在爬的时候不能自然的按段逻辑存储(因为全都是并列的)。所以必须用正则的方法。

基本的想法就是把整个html文件看做是str,然后用正则的方法截取想要的内容,在重新把这段内容转换成beautifulsoup对象,然后在进一步处理。

可能要花些时间看一下正则。

代码中还有很多细节,忘了再查吧只能,下次绝对应该边做编写文档,或者做完马上写。。。

贴代码!

# coding:utf-8
'''
 function:爬取百度百科所有北京景点,
 author:yi
'''
import urllib.request
from urllib.request import urlopen
from urllib.error import HTTPError
import urllib.parse
from bs4 import BeautifulSoup
import re
import codecs
import json
 
class BaikeCraw(object):
 def __init__(self):
  self.urls =set()
  self.view_datas= {}
 
 def craw(self,filename):
  urls = self.getUrls(filename)
  if urls == None:
   print("not found")
  else:
   for urll in urls:
    print(urll)
    try:
     html_count=self.download(urll)
     self.passer(urll, html_count)
    except:
     print("view do not exist")
    '''file=self.view_datas["view_name"]
    self.craw_pic(urll,file,html_count)
     print(file)'''
 
 
 def getUrls (self, filename):
  new_urls = set()
  file_object = codecs.open(filename, encoding='utf-16', )
  try:
   all_text = file_object.read()
  except:
   print("文件打开异常!")
   file_object.close()
  file_object.close()
  view_names=all_text.split(" ")
  for l in view_names:
   if '?' in l:
    view_names.remove(l)
  for l in view_names:
   '''http://baike.baidu.com/search/word?word=''' # 得到url的方法
   name=urllib.parse.quote(l)
   name.encode('utf-8')
   url='http://baike.baidu.com/search/word?word='+name
   new_urls.add(url)
  print(new_urls)
  return new_urls
 
 def manger(self):
  pass
 
 def passer(self,urll,html_count):
  soup = BeautifulSoup(html_count, 'html.parser', from_encoding='utf_8')
  self._get_new_data(urll, soup)
  return
 
 def download(self,url):
  if url is None:
   return None
  response = urllib.request.urlopen(url)
  if response.getcode() != 200:
   return None
  return response.read()
 
 def _get_new_data(self, url, soup): ##得到数据
  if soup.find('div',class_="main-content").find('h1') is not None:
   self.view_datas["view_name"]=soup.find('div',class_="main-content").find('h1').get_text()#景点名
   print(self.view_datas["view_name"])
  else:
   self.view_datas["view_name"] = soup.find("div", class_="feature_poster").find("h1").get_text()
  self.view_datas["view_message"] = soup.find('div', class_="lemma-summary").get_text()#简介
  self.view_datas["basic_message"]=soup.find('div', class_="basic-info cmn-clearfix").get_text() #基本信息
  self.view_datas["basic_message"]=self.view_datas["basic_message"].split("\n")
  get=[]
  for line in self.view_datas["basic_message"]:
   if line != "":
   get.append(line)
  self.view_datas["basic_message"]=get
  i=1
  get2=[]
  tmp="%%"
  for line in self.view_datas["basic_message"]:
 
   if i % 2 == 1:
    tmp=line
   else:
    a=tmp+":"+line
    get2.append(a)
   i=i+1
  self.view_datas["basic_message"] = get2
  self.view_datas["catalog"] = soup.find('div', class_="lemma-catalog").get_text().split("\n")#目录整体
  get = []
  for line in self.view_datas["catalog"]:
   if line != "":
    get.append(line)
  self.view_datas["catalog"] = get
  #########################百科内容
  view_name=self.view_datas["view_name"]
  html = urllib.request.urlopen(url)
  soup2 = BeautifulSoup(html.read(), 'html.parser').decode('utf-8')
  p = re.compile(r'', re.DOTALL) # 尾
  r = p.search(content_data_node)
  content_data = content_data_node[0:r.span(0)[0]]
  lists = content_data.split('')
  i = 1
  for list in lists:#每一大块
   final_soup = BeautifulSoup(list, "html.parser")
   name_list = None
   try:
    part_name = final_soup.find('h2', class_="title-text").get_text().replace(view_name, '').strip()
    part_data = final_soup.get_text().replace(view_name, '').replace(part_name, '').replace('编辑', '') # 历史沿革
    name_list = final_soup.findAll('h3', class_="title-text")
    all_name_list = {}
    na="part_name"+str(i)
    all_name_list[na] = part_name
    final_name_list = []###########
    for nlist in name_list:
     nlist = nlist.get_text().replace(view_name, '').strip()
     final_name_list.append(nlist)
    fin="final_name_list"+str(i)
    all_name_list[fin] = final_name_list
    print(all_name_list)
    i=i+1
    #正文
    try:
     p = re.compile(r'', re.DOTALL)
     final_soup = final_soup.decode('utf-8')
     r = p.search(final_soup)
     final_part_data = final_soup[r.span(0)[0]:]
     part_lists = final_part_data.split('')
     for part_list in part_lists:
      final_part_soup = BeautifulSoup(part_list, "html.parser")
      content_lists = final_part_soup.findAll("div", class_="para")
      for content_list in content_lists: # 每个最小段
       try:
        pic_word = content_list.find("div",
                class_="lemma-picture text-pic layout-right").get_text() # 去掉文字中的图片描述
        try:
         pic_word2 = content_list.find("div", class_="description").get_text() # 去掉文字中的图片描述
         content_list = content_list.get_text().replace(pic_word, '').replace(pic_word2, '')
        except:
         content_list = content_list.get_text().replace(pic_word, '')
 
       except:
        try:
         pic_word2 = content_list.find("div", class_="description").get_text() # 去掉文字中的图片描述
         content_list = content_list.get_text().replace(pic_word2, '')
        except:
         content_list = content_list.get_text()
       r_part = re.compile(r'\[\d.\]|\[\d\]')
       part_result, number = re.subn(r_part, "", content_list)
       part_result = "".join(part_result.split())
       #print(part_result)
    except:
     final_part_soup = BeautifulSoup(list, "html.parser")
     content_lists = final_part_soup.findAll("div", class_="para")
     for content_list in content_lists:
      try:
       pic_word = content_list.find("div", class_="lemma-picture text-pic layout-right").get_text() # 去掉文字中的图片描述
       try:
        pic_word2 = content_list.find("div", class_="description").get_text() # 去掉文字中的图片描述
        content_list = content_list.get_text().replace(pic_word, '').replace(pic_word2, '')
       except:
        content_list = content_list.get_text().replace(pic_word, '')
 
      except:
       try:
        pic_word2 = content_list.find("div", class_="description").get_text() # 去掉文字中的图片描述
        content_list = content_list.get_text().replace(pic_word2, '')
       except:
        content_list = content_list.get_text()
      r_part = re.compile(r'\[\d.\]|\[\d\]')
      part_result, number = re.subn(r_part, "", content_list)
      part_result = "".join(part_result.split())
      #print(part_result)
 
   except:
    print("error")
  return
 
 def output(self,filename):
  json_data = json.dumps(self.view_datas, ensure_ascii=False, indent=2)
  fout = codecs.open(filename+'.json', 'a', encoding='utf-16', )
  fout.write( json_data)
  # print(json_data)
  return
 
 def craw_pic(self,url,filename,html_count):
  soup = BeautifulSoup(html_count, 'html.parser', from_encoding='utf_8')
  node_pic=soup.find('div',class_='banner').find("a", href=re.compile("/photo/poi/....\."))
  if node_pic is None:
   return None
  else:
   part_url_pic=node_pic['href']
   full_url_pic=urllib.parse.urljoin(url,part_url_pic)
   #print(full_url_pic)
  try:
   html_pic = urlopen(full_url_pic)
  except HTTPError as e:
   return None
  soup_pic=BeautifulSoup(html_pic.read())
  pic_node=soup_pic.find('div',class_="album-list")
  print(pic_node)
  return
 
if __name__ =="__main__" :
 spider=BaikeCraw()
 filename="D:\PyCharm\\view_spider\\view_points_part.txt"
 spider.craw(filename)

总结

用python3根据关键词爬取百度百科的内容到这就基本结束了,希望这篇文章能对大家学习python有所帮助。

Python 相关文章推荐
python获取从命令行输入数字的方法
Apr 29 Python
python实现自动登录人人网并采集信息的方法
Jun 28 Python
python实现多线程的方式及多条命令并发执行
Jun 07 Python
浅谈scrapy 的基本命令介绍
Jun 13 Python
Python利用flask sqlalchemy实现分页效果
Aug 02 Python
Python中表示字符串的三种方法
Sep 06 Python
在pandas多重索引multiIndex中选定指定索引的行方法
Nov 16 Python
对python opencv 添加文字 cv2.putText 的各参数介绍
Dec 05 Python
PyQt5创建一个新窗口的实例
Jun 20 Python
TensorFlow实现checkpoint文件转换为pb文件
Feb 10 Python
Python run()函数和start()函数的比较和差别介绍
May 03 Python
Python headers请求头如何实现快速添加
Nov 03 Python
利用Python爬取可用的代理IP
Aug 18 #Python
总结用Pdb库调试Python的方式及常用的命令
Aug 18 #Python
Python实现命令行通讯录实例教程
Aug 18 #Python
Python采用Django开发自己的博客系统
Sep 29 #Python
浅析Python中元祖、列表和字典的区别
Aug 17 #Python
Python+django实现简单的文件上传
Aug 17 #Python
Python Django使用forms来实现评论功能
Aug 17 #Python
You might like
PHP中使用正则表达式提取中文实现笔记
2015/01/20 PHP
PHP MSSQL 分页实例
2016/04/13 PHP
PHP入门教程之面向对象的特性分析(继承,多态,接口,抽象类,抽象方法等)
2016/09/11 PHP
PHP错误处理函数register_shutdown_function使用示例
2017/07/03 PHP
php基于session锁防止阻塞请求的方法分析
2017/08/07 PHP
PHP PDOStatement::getAttribute讲解
2019/02/01 PHP
javascript 常用代码技巧大收集
2009/02/25 Javascript
一个JQuery写的点击上下滚动的小例子
2011/08/27 Javascript
js改变鼠标的形状和样式的方法
2014/03/31 Javascript
jQuery横向擦除焦点图特效代码分享
2015/09/06 Javascript
Eclipse编辑jsp、js文件时卡死现象的解决办法汇总
2016/02/02 Javascript
javascript实现抽奖程序的简单实例
2016/06/07 Javascript
jQuery实现对无序列表的排序功能(附demo源码下载)
2016/06/25 Javascript
Vue.js简易安装和快速入门(第二课)
2017/10/17 Javascript
送你43道JS面试题(收藏)
2019/06/17 Javascript
vue3修改link标签默认icon无效问题详解
2019/10/09 Javascript
Vue ElementUI实现:限制输入框只能输入正整数的问题
2020/07/31 Javascript
[36:20]完美世界DOTA2联赛PWL S3 access vs Rebirth 第一场 12.17
2020/12/18 DOTA
Python 拷贝对象(深拷贝deepcopy与浅拷贝copy)
2008/09/06 Python
python实现带验证码网站的自动登陆实现代码
2015/01/12 Python
Django中的文件的上传的几种方式
2018/07/23 Python
python通过http下载文件的方法详解
2019/07/26 Python
Python下应用opencv 实现人脸检测功能
2019/10/24 Python
pandas创建DataFrame的7种方法小结
2020/06/14 Python
世界上最大的折扣香水店:FragranceNet.com
2016/10/26 全球购物
中东奢侈品购物网站:Ounass
2020/09/02 全球购物
委托与事件是什么关系?为什么要使用委托
2014/04/18 面试题
Linux面试题LINUX系统类
2014/11/19 面试题
大学生个人求职信
2014/06/02 职场文书
大学生工作求职信
2014/06/23 职场文书
2014年党的群众路线活动个人整改措施
2014/10/28 职场文书
前台接待岗位职责范本
2015/04/03 职场文书
2016年学校“3.12”植树节活动总结
2016/03/16 职场文书
求职自我评价参考范文
2019/05/16 职场文书
Python集合set()使用的方法详解
2022/03/18 Python
MySQL约束(创建表时的各种条件说明)
2022/06/21 MySQL