利用python爬取散文网的文章实例教程


Posted in Python onJune 18, 2017

本文主要给大家介绍的是关于python爬取散文网文章的相关内容,分享出来供大家参考学习,下面一起来看看详细的介绍:

效果图如下:

利用python爬取散文网的文章实例教程

配置python 2.7

bs4

 requests

安装 用pip进行安装 sudo pip install bs4

sudo pip install requests

简要说明一下bs4的使用因为是爬取网页 所以就介绍find 跟find_all

find跟find_all的不同在于返回的东西不同 find返回的是匹配到的第一个标签及标签里的内容

find_all返回的是一个列表

比如我们写一个test.html 用来测试find跟find_all的区别。

内容是:

<html>
<head>
</head>
<body>
<div id="one"><a></a></div>
<div id="two"><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >abc</a></div>
<div id="three"><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >three a</a><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >three a</a><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >three a</a></div>
<div id="four"><a href="#" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >four<p>four p</p><p>four p</p><p>four p</p> a</a></div>
</body>
</html>

然后test.py的代码为:

from bs4 import BeautifulSoup
import lxml

if __name__=='__main__':
 s = BeautifulSoup(open('test.html'),'lxml')
 print s.prettify()
 print "------------------------------"
 print s.find('div')
 print s.find_all('div')
 print "------------------------------"
 print s.find('div',id='one')
 print s.find_all('div',id='one')
 print "------------------------------"
 print s.find('div',id="two")
 print s.find_all('div',id="two")
 print "------------------------------"
 print s.find('div',id="three")
 print s.find_all('div',id="three")
 print "------------------------------"
 print s.find('div',id="four")
 print s.find_all('div',id="four")
 print "------------------------------"

运行以后我们可以看到结果当获取指定标签时候两者区别不大当获取一组标签的时候两者的区别就会显示出来

利用python爬取散文网的文章实例教程

所以我们在使用时候要注意到底要的是什么,否则会出现报错

接下来就是通过requests 获取网页信息了,我不太懂别人为什么要写heard跟其他的东西

我直接进行网页访问,通过get方式获取散文网几个分类的二级网页然后通过一个组的测试,把所有的网页爬取一遍

def get_html():
 url = "https://www.sanwen.net/"
 two_html = ['sanwen','shige','zawen','suibi','rizhi','novel']
 for doc in two_html:
 i=1
  if doc=='sanwen':
  print "running sanwen -----------------------------"
  if doc=='shige':
  print "running shige ------------------------------"
  if doc=='zawen':
  print 'running zawen -------------------------------'
  if doc=='suibi':
  print 'running suibi -------------------------------'
  if doc=='rizhi':
  print 'running ruzhi -------------------------------'
  if doc=='nove':
  print 'running xiaoxiaoshuo -------------------------'
 while(i<10):
 par = {'p':i}
 res = requests.get(url+doc+'/',params=par)
 if res.status_code==200:
  soup(res.text)
  i+=i

这部分的代码中我没有对res.status_code不是200的进行处理,导致的问题是会不显示错误,爬取的内容会有丢失。然后分析散文网的网页,发现是www.sanwen.net/rizhi/&p=1

p最大值是10这个不太懂,上次爬盘多多是100页,算了算了以后再分析。然后就通过get方法获取每页的内容。

获取每页内容以后就是分析作者跟题目了代码是这样的

def soup(html_text):
 s = BeautifulSoup(html_text,'lxml')
 link = s.find('div',class_='categorylist').find_all('li')
 for i in link:
 if i!=s.find('li',class_='page'):
 title = i.find_all('a')[1]
 author = i.find_all('a')[2].text
 url = title.attrs['href']
 sign = re.compile(r'(//)|/')
 match = sign.search(title.text)
 file_name = title.text
 if match:
 file_name = sign.sub('a',str(title.text))

获取标题的时候出现坑爹的事,请问大佬们写散文你标题加斜杠干嘛,不光加一个还有加两个的,这个问题直接导致我后面写入文件的时候文件名出现错误,于是写正则表达式,我给你改行了吧。

最后就是获取散文内容了,通过每页的分析,获得文章地址,然后直接获取内容,本来还想直接通过改网页地址一个一个的获得呢,这样也省事了。

def get_content(url):
 res = requests.get('https://www.sanwen.net'+url)
 if res.status_code==200:
 soup = BeautifulSoup(res.text,'lxml')
 contents = soup.find('div',class_='content').find_all('p')
 content = ''
 for i in contents:
 content+=i.text+'\n'
 return content

最后就是写入文件保存ok

f = open(file_name+'.txt','w')

 print 'running w txt'+file_name+'.txt'
 f.write(title.text+'\n')
 f.write(author+'\n')
 content=get_content(url) 
 f.write(content)
 f.close()

三个函数获取散文网的散文,不过有问题,问题在于不知道为什么有些散文丢失了我只能获取到大概400多篇文章,这跟散文网的文章是差很多很多的,但是确实是一页一页的获取来的,这个问题希望大佬帮忙看看。可能应该做网页无法访问的处理,当然我觉得跟我宿舍这个破网有关系

f = open(file_name+'.txt','w')
 print 'running w txt'+file_name+'.txt'
 f.write(title.text+'\n')
 f.write(author+'\n')
 content=get_content(url) 
 f.write(content)
 f.close()

差点忘了效果图

利用python爬取散文网的文章实例教程

能会出现timeout现象吧,只能说上大学一定要选网好的啊!

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对三水点靠木的支持。

Python 相关文章推荐
用Python进行一些简单的自然语言处理的教程
Mar 31 Python
改进Django中的表单的简单方法
Jul 17 Python
python编程线性回归代码示例
Dec 07 Python
python中列表和元组的区别
Dec 18 Python
python抽取指定url页面的title方法
May 11 Python
Python实现ping指定IP的示例
Jun 04 Python
Pandas之groupby( )用法笔记小结
Jul 23 Python
Python产生一个数值范围内的不重复的随机数的实现方法
Aug 21 Python
wxPython实现分隔窗口
Nov 19 Python
关于tensorflow softmax函数用法解析
Jun 30 Python
Django vue前后端分离整合过程解析
Nov 20 Python
python爬虫智能翻页批量下载文件的实例详解
Feb 02 Python
Python3中简单的文件操作及两个简单小实例分享
Jun 18 #Python
python实现各进制转换的总结大全
Jun 18 #Python
Mac 上切换Python多版本
Jun 17 #Python
利用python实现xml与数据库读取转换的方法
Jun 17 #Python
用python写个自动SSH登录远程服务器的小工具(实例)
Jun 17 #Python
python中Pycharm 输出中文或打印中文乱码现象的解决办法
Jun 16 #Python
Python生成随机密码的方法
Jun 16 #Python
You might like
PHP+DBM的同学录程序(1)
2006/10/09 PHP
让你的WINDOWS同时支持MYSQL4,MYSQL4.1,MYSQL5X
2006/12/06 PHP
CodeIgniter配置之config.php用法实例分析
2016/01/19 PHP
php强大的时间转换函数strtotime
2016/02/18 PHP
PHP读MYSQL中文乱码的快速解决方法
2016/10/01 PHP
IE6下js通过css隐藏select的一个bug
2010/08/16 Javascript
javascript温习的一些笔记 基础常用知识小结
2011/06/22 Javascript
javascript获取flash版本号的方法
2014/11/20 Javascript
jQuery实现行文字链接提示效果的方法
2015/03/10 Javascript
JavaScript数组和循环详解
2015/04/27 Javascript
JavaScript ParseFloat()方法
2015/12/18 Javascript
jQuery 中的 DOM 操作
2016/04/26 Javascript
node+express制作爬虫教程
2016/11/11 Javascript
原生JS实现 MUI导航栏透明渐变效果
2017/11/07 Javascript
babel之配置文件.babelrc入门详解
2018/02/22 Javascript
Vue结合Video.js播放m3u8视频流的方法示例
2018/05/04 Javascript
零基础之Node.js搭建API服务器的详解
2019/03/08 Javascript
ES6 Promise对象的含义和基本用法分析
2019/06/14 Javascript
在Vue环境下利用worker运行interval计时器的步骤
2019/08/01 Javascript
layui树形菜单动态遍历的例子
2019/09/23 Javascript
JS实现网站楼层导航效果代码实例
2020/06/16 Javascript
JavaScript中的函数式编程详解
2020/08/22 Javascript
python进阶教程之模块(module)介绍
2014/08/30 Python
Python中Threading用法详解
2017/12/27 Python
Flask 让jsonify返回的json串支持中文显示的方法
2018/03/26 Python
Django 中间键和上下文处理器的使用
2019/03/17 Python
python模拟键盘输入 切换键盘布局过程解析
2019/08/15 Python
Python中 CSV格式清洗与转换的实例代码
2019/08/29 Python
更新升级python和pip版本后不生效的问题解决
2020/04/17 Python
使用Python-OpenCV消除图像中孤立的小区域操作
2020/07/05 Python
关于PySnooper 永远不要使用print进行调试的问题
2021/03/04 Python
公司综合部的成员自我评价分享
2013/11/05 职场文书
联谊活动策划书
2014/01/26 职场文书
申报优秀教师材料
2014/12/16 职场文书
毕业典礼致辞
2015/07/29 职场文书
Python selenium绕过webdriver监测执行javascript
2022/04/12 Python