利用python爬取散文网的文章实例教程


Posted in Python onJune 18, 2017

本文主要给大家介绍的是关于python爬取散文网文章的相关内容,分享出来供大家参考学习,下面一起来看看详细的介绍:

效果图如下:

利用python爬取散文网的文章实例教程

配置python 2.7

bs4

 requests

安装 用pip进行安装 sudo pip install bs4

sudo pip install requests

简要说明一下bs4的使用因为是爬取网页 所以就介绍find 跟find_all

find跟find_all的不同在于返回的东西不同 find返回的是匹配到的第一个标签及标签里的内容

find_all返回的是一个列表

比如我们写一个test.html 用来测试find跟find_all的区别。

内容是:

<html>
<head>
</head>
<body>
<div id="one"><a></a></div>
<div id="two"><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >abc</a></div>
<div id="three"><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >three a</a><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >three a</a><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >three a</a></div>
<div id="four"><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >four<p>four p</p><p>four p</p><p>four p</p> a</a></div>
</body>
</html>

然后test.py的代码为:

from bs4 import BeautifulSoup
import lxml

if __name__=='__main__':
 s = BeautifulSoup(open('test.html'),'lxml')
 print s.prettify()
 print "------------------------------"
 print s.find('div')
 print s.find_all('div')
 print "------------------------------"
 print s.find('div',id='one')
 print s.find_all('div',id='one')
 print "------------------------------"
 print s.find('div',id="two")
 print s.find_all('div',id="two")
 print "------------------------------"
 print s.find('div',id="three")
 print s.find_all('div',id="three")
 print "------------------------------"
 print s.find('div',id="four")
 print s.find_all('div',id="four")
 print "------------------------------"

运行以后我们可以看到结果当获取指定标签时候两者区别不大当获取一组标签的时候两者的区别就会显示出来

利用python爬取散文网的文章实例教程

所以我们在使用时候要注意到底要的是什么,否则会出现报错

接下来就是通过requests 获取网页信息了,我不太懂别人为什么要写heard跟其他的东西

我直接进行网页访问,通过get方式获取散文网几个分类的二级网页然后通过一个组的测试,把所有的网页爬取一遍

def get_html():
 url = "https://www.sanwen.net/"
 two_html = ['sanwen','shige','zawen','suibi','rizhi','novel']
 for doc in two_html:
 i=1
  if doc=='sanwen':
  print "running sanwen -----------------------------"
  if doc=='shige':
  print "running shige ------------------------------"
  if doc=='zawen':
  print 'running zawen -------------------------------'
  if doc=='suibi':
  print 'running suibi -------------------------------'
  if doc=='rizhi':
  print 'running ruzhi -------------------------------'
  if doc=='nove':
  print 'running xiaoxiaoshuo -------------------------'
 while(i<10):
 par = {'p':i}
 res = requests.get(url+doc+'/',params=par)
 if res.status_code==200:
  soup(res.text)
  i+=i

这部分的代码中我没有对res.status_code不是200的进行处理,导致的问题是会不显示错误,爬取的内容会有丢失。然后分析散文网的网页,发现是www.sanwen.net/rizhi/&p=1

p最大值是10这个不太懂,上次爬盘多多是100页,算了算了以后再分析。然后就通过get方法获取每页的内容。

获取每页内容以后就是分析作者跟题目了代码是这样的

def soup(html_text):
 s = BeautifulSoup(html_text,'lxml')
 link = s.find('div',class_='categorylist').find_all('li')
 for i in link:
 if i!=s.find('li',class_='page'):
 title = i.find_all('a')[1]
 author = i.find_all('a')[2].text
 url = title.attrs['href']
 sign = re.compile(r'(//)|/')
 match = sign.search(title.text)
 file_name = title.text
 if match:
 file_name = sign.sub('a',str(title.text))

获取标题的时候出现坑爹的事,请问大佬们写散文你标题加斜杠干嘛,不光加一个还有加两个的,这个问题直接导致我后面写入文件的时候文件名出现错误,于是写正则表达式,我给你改行了吧。

最后就是获取散文内容了,通过每页的分析,获得文章地址,然后直接获取内容,本来还想直接通过改网页地址一个一个的获得呢,这样也省事了。

def get_content(url):
 res = requests.get('https://www.sanwen.net'+url)
 if res.status_code==200:
 soup = BeautifulSoup(res.text,'lxml')
 contents = soup.find('div',class_='content').find_all('p')
 content = ''
 for i in contents:
 content+=i.text+'\n'
 return content

最后就是写入文件保存ok

f = open(file_name+'.txt','w')

 print 'running w txt'+file_name+'.txt'
 f.write(title.text+'\n')
 f.write(author+'\n')
 content=get_content(url) 
 f.write(content)
 f.close()

三个函数获取散文网的散文,不过有问题,问题在于不知道为什么有些散文丢失了我只能获取到大概400多篇文章,这跟散文网的文章是差很多很多的,但是确实是一页一页的获取来的,这个问题希望大佬帮忙看看。可能应该做网页无法访问的处理,当然我觉得跟我宿舍这个破网有关系

f = open(file_name+'.txt','w')
 print 'running w txt'+file_name+'.txt'
 f.write(title.text+'\n')
 f.write(author+'\n')
 content=get_content(url) 
 f.write(content)
 f.close()

差点忘了效果图

利用python爬取散文网的文章实例教程

能会出现timeout现象吧,只能说上大学一定要选网好的啊!

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对三水点靠木的支持。

Python 相关文章推荐
Nginx搭建HTTPS服务器和强制使用HTTPS访问的方法
Aug 16 Python
Python使用multiprocessing实现一个最简单的分布式作业调度系统
Mar 14 Python
Pycharm学习教程(3) 代码运行调试
May 03 Python
python smtplib模块实现发送邮件带附件sendmail
May 22 Python
python实现对任意大小图片均匀切割的示例
Dec 05 Python
如何使用Python进行OCR识别图片中的文字
Apr 01 Python
Python实现九宫格式的朋友圈功能内附“马云”朋友圈
May 07 Python
python3.7环境下安装Anaconda的教程图解
Sep 10 Python
Python连接字符串过程详解
Jan 06 Python
Django的CVB实例详解
Feb 10 Python
对python中return与yield的区别详解
Mar 12 Python
python 离散点图画法的实现
Apr 01 Python
Python3中简单的文件操作及两个简单小实例分享
Jun 18 #Python
python实现各进制转换的总结大全
Jun 18 #Python
Mac 上切换Python多版本
Jun 17 #Python
利用python实现xml与数据库读取转换的方法
Jun 17 #Python
用python写个自动SSH登录远程服务器的小工具(实例)
Jun 17 #Python
python中Pycharm 输出中文或打印中文乱码现象的解决办法
Jun 16 #Python
Python生成随机密码的方法
Jun 16 #Python
You might like
PHP strncasecmp字符串比较的小技巧
2011/01/04 PHP
详解PHP用substr函数截取字符串中的某部分
2016/12/03 PHP
Laravel的Auth验证Token验证使用自定义Redis的例子
2019/09/30 PHP
常见的5个PHP编码小陋习以及优化实例讲解
2021/02/27 PHP
麦鸡的TAB切换功能结合了javascript和css
2007/12/17 Javascript
ExtJs 3.1 XmlTreeLoader Example Error
2010/02/09 Javascript
js自定义方法通过隐藏iframe实现文件下载
2013/02/21 Javascript
qq悬浮代码(兼容各个浏览器)
2014/01/29 Javascript
JavaScript中使用document.write向页面输出内容实例
2014/10/16 Javascript
AngularJS入门教程(零):引导程序
2014/12/06 Javascript
纯HTML5制作围住神经猫游戏-附源码下载
2015/08/23 Javascript
JS瀑布流实现方法实例分析
2016/12/19 Javascript
VUE实现日历组件功能
2017/03/13 Javascript
vue中用动态组件实现选项卡切换效果
2017/03/25 Javascript
JavaScript如何一次性展示几万条数据
2017/03/30 Javascript
浅谈vue-router 路由传参的方法
2017/12/27 Javascript
vue实现循环切换动画
2018/10/17 Javascript
vue 判断元素内容是否超过宽度的方式
2020/07/29 Javascript
JS轮播图的实现方法
2020/08/24 Javascript
[02:22]完美世界DOTA2联赛PWL S3 集锦第一期
2020/12/15 DOTA
python计算圆周率pi的方法
2015/07/11 Python
Python合并字典键值并去除重复元素的实例
2016/12/18 Python
Windows和Linux下Python输出彩色文字的方法教程
2017/05/02 Python
python3中property使用方法详解
2019/04/23 Python
PyCharm搭建Spark开发环境的实现步骤
2019/09/05 Python
Python使用xpath实现图片爬取
2020/09/16 Python
电子商务专业个人的自我评价
2013/11/19 职场文书
客房主管岗位职责
2013/12/09 职场文书
期末自我鉴定
2014/01/23 职场文书
三潭印月的导游词
2015/02/12 职场文书
施工单位工程部经理岗位职责
2015/04/09 职场文书
汤姆索亚历险记读书笔记
2015/06/29 职场文书
读《教育心理学》心得体会
2016/01/22 职场文书
MySQL命令行操作时的编码问题详解
2021/04/14 MySQL
i7 6700处理器相当于i5几代
2022/04/19 数码科技
redis lua限流算法实现示例
2022/07/15 Redis