Python之Scrapy爬虫框架安装及简单使用详解


Posted in Python onDecember 22, 2017

题记:早已听闻python爬虫框架的大名。近些天学习了下其中的Scrapy爬虫框架,将自己理解的跟大家分享。有表述不当之处,望大神们斧正。

一、初窥Scrapy

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。

其最初是为了页面抓取(更确切来说,网络抓取)所设计的, 也可以应用在获取API所返回的数据(例如Amazon Associates Web Services) 或者通用的网络爬虫。

本文档将通过介绍Scrapy背后的概念使您对其工作原理有所了解, 并确定Scrapy是否是您所需要的。

当您准备好开始您的项目后,您可以参考入门教程。

二、Scrapy安装介绍

Scrapy框架运行平台及相关辅助工具

  1. Python2.7(Python最新版3.5,这里选择了2.7版本)
  2. Python Package:pipandsetuptools. 现在pip依赖setuptools,如果未安装,则会自动安装setuptools。
  3. lxml. 大多数Linux发行版自带了lxml。如果缺失,请查看http://lxml.de/installation.html
  4. OpenSSL. 除了Windows(请查看平台安装指南)之外的系统都已经提供。

您可以使用pip来安装Scrapy(推荐使用pip来安装Python package).

pip install Scrapy

Windows下安装流程:

1、安装Python 2.7之后,您需要修改PATH环境变量,将Python的可执行程序及额外的脚本添加到系统路径中。将以下路径添加到PATH中:

C:\Python27\;C:\Python27\Scripts\;

除此之外,还可以用cmd命令来设置Path:

c:\python27\python.exe c:\python27\tools\scripts\win_add2path.py

安装配置完成之后,可以执行命令python --version查看安装的python版本。(如图所示)

Python之Scrapy爬虫框架安装及简单使用详解

2、从http://sourceforge.net/projects/pywin32/安装pywin32

请确认下载符合您系统的版本(win32或者amd64)

从https://pip.pypa.io/en/latest/installing.html安装pip

3、打开命令行窗口,确认pip被正确安装:

pip --version

4、到目前为止Python 2.7 及pip已经可以正确运行了。接下来安装Scrapy:

pip install Scrapy

至此windows下Scrapy安装已经结束。

三、Scrapy入门教程

1、在cmd中创建Scrapy项目工程。

scrapy startproject tutorial

H:\python\scrapyDemo>scrapy startproject tutorial
New Scrapy project 'tutorial', using template directory 'f:\\python27\\lib\\site-packages\\scrapy\\templates\\project', created in:
  H:\python\scrapyDemo\tutorial

You can start your first spider with:
  cd tutorial
  scrapy genspider example example.com

2、文件目录结构如下:

Python之Scrapy爬虫框架安装及简单使用详解

解析scrapy框架结构:

  1. scrapy.cfg: 项目的配置文件。
  2. tutorial/: 该项目的python模块。之后您将在此加入代码。
  3. tutorial/items.py: 项目中的item文件。
  4. tutorial/pipelines.py: 项目中的pipelines文件。
  5. tutorial/settings.py: 项目的设置文件。
  6. tutorial/spiders/: 放置spider代码的目录。

3、编写简单的爬虫

1、在item.py中配置需采集页面的字段实例。

# -*- coding: utf-8 -*-
# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/en/latest/topics/items.html
import scrapy
from scrapy.item import Item, Field
class TutorialItem(Item):
  title = Field()
  author = Field()
  releasedate = Field()

2、在tutorial/spiders/spider.py中书写要采集的网站以及分别采集各字段。

# -*-coding:utf-8-*-
import sys
from scrapy.linkextractors.sgml import SgmlLinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from tutorial.items import TutorialItem
reload(sys)
sys.setdefaultencoding("utf-8")
class ListSpider(CrawlSpider):
  # 爬虫名称
  name = "tutorial"
  # 设置下载延时
  download_delay = 1
  # 允许域名
  allowed_domains = ["news.cnblogs.com"]
  # 开始URL
  start_urls = [
    "https://news.cnblogs.com"
  ]
  # 爬取规则,不带callback表示向该类url递归爬取
  rules = (
    Rule(SgmlLinkExtractor(allow=(r'https://news.cnblogs.com/n/page/\d',))),
    Rule(SgmlLinkExtractor(allow=(r'https://news.cnblogs.com/n/\d+',)), callback='parse_content'),
  )

  # 解析内容函数
  def parse_content(self, response):
    item = TutorialItem()

    # 当前URL
    title = response.selector.xpath('//div[@id="news_title"]')[0].extract().decode('utf-8')
    item['title'] = title

    author = response.selector.xpath('//div[@id="news_info"]/span/a/text()')[0].extract().decode('utf-8')
    item['author'] = author

    releasedate = response.selector.xpath('//div[@id="news_info"]/span[@class="time"]/text()')[0].extract().decode(
      'utf-8')
    item['releasedate'] = releasedate

    yield item

3、在tutorial/pipelines.py管道中保存数据。

# -*- coding: utf-8 -*-
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
import json
import codecs
class TutorialPipeline(object):
  def __init__(self):
    self.file = codecs.open('data.json', mode='wb', encoding='utf-8')#数据存储到data.json

  def process_item(self, item, spider):
    line = json.dumps(dict(item)) + "\n"
    self.file.write(line.decode("unicode_escape"))

    return item

4、tutorial/settings.py中配置执行环境。

# -*- coding: utf-8 -*-
BOT_NAME = 'tutorial'
SPIDER_MODULES = ['tutorial.spiders']
NEWSPIDER_MODULE = 'tutorial.spiders'

# 禁止cookies,防止被ban
COOKIES_ENABLED = False
COOKIES_ENABLES = False

# 设置Pipeline,此处实现数据写入文件
ITEM_PIPELINES = {
  'tutorial.pipelines.TutorialPipeline': 300
}

# 设置爬虫爬取的最大深度
DEPTH_LIMIT = 100

5、新建main文件执行爬虫代码。

from scrapy import cmdline
cmdline.execute("scrapy crawl tutorial".split())

最终,执行main.py后在data.json文件中获取到采集结果的json数据。

Python之Scrapy爬虫框架安装及简单使用详解

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持三水点靠木。

Python 相关文章推荐
PHP网页抓取之抓取百度贴吧邮箱数据代码分享
Apr 13 Python
浅谈Python中的私有变量
Feb 28 Python
pandas表连接 索引上的合并方法
Jun 08 Python
django-filter和普通查询的例子
Aug 12 Python
python修改FTP服务器上的文件名
Sep 11 Python
python多线程并发及测试框架案例
Oct 15 Python
python多进程(加入进程池)操作常见案例
Oct 21 Python
pygame实现五子棋游戏
Oct 29 Python
python tornado使用流生成图片的例子
Nov 18 Python
python itsdangerous模块的具体使用方法
Feb 17 Python
Python reversed反转序列并生成可迭代对象
Oct 22 Python
Python实现信息轰炸工具(再也不怕说不过别人了)
Jun 11 Python
Python2.7下安装Scrapy框架步骤教程
Dec 22 #Python
Python机器学习之决策树算法
Dec 22 #Python
python+selenium实现登录账户后自动点击的示例
Dec 22 #Python
python实现决策树
Dec 21 #Python
python利用sklearn包编写决策树源代码
Dec 21 #Python
python实现决策树分类算法
Dec 21 #Python
Python语言描述机器学习之Logistic回归算法
Dec 21 #Python
You might like
无限级别菜单的实现
2006/10/09 PHP
有关PHP性能优化的介绍
2013/06/20 PHP
jQuery 获取对象 基本选择与层级
2010/05/31 Javascript
左右悬浮可分组的网站QQ在线客服代码(可谓经典)
2012/12/21 Javascript
JavaScript建立一个语法高亮输入框实现思路
2013/02/26 Javascript
自动最大化窗口的Javascript代码
2013/05/22 Javascript
js 编码转换 gb2312 和 utf8 互转的2种方法
2013/08/07 Javascript
DOM操作一些常用的属性汇总
2015/03/13 Javascript
jQuery实现鼠标双击Table单元格变成文本框及输入内容后更新到数据库的方法
2015/11/25 Javascript
Nodejs全局安装和本地安装的不同之处
2016/07/04 NodeJs
Js调用Java方法并互相传参的简单实例
2016/08/11 Javascript
前端程序员必须知道的高性能Javascript知识
2016/08/24 Javascript
ES2015 Symbol 一种绝不重复的值
2016/12/25 Javascript
AngularJS实现页面跳转后自动弹出对话框实例代码
2017/08/02 Javascript
vue-cli webpack 引入jquery的方法
2018/01/10 jQuery
JavaScript对象的浅拷贝与深拷贝实例分析
2018/07/25 Javascript
layui禁用侧边导航栏点击事件的解决方法
2019/09/25 Javascript
javascript实现计算器功能
2020/03/30 Javascript
jQuery实现倒计时功能完整示例
2020/06/01 jQuery
解决Mint-ui 框架Popup和Datetime Picker组件滚动穿透的问题
2020/11/04 Javascript
[02:35]DOTA2超级联赛专访XB 难忘一年九冠称王
2013/06/20 DOTA
python学习 流程控制语句详解
2016/06/01 Python
Python中模块string.py详解
2017/03/12 Python
Python向MySQL批量插数据的实例讲解
2018/03/31 Python
Python使用pylab库实现绘制直方图功能示例
2018/06/01 Python
python爬虫-模拟微博登录功能
2019/09/12 Python
Ellos瑞典官网:北欧地区时尚、美容和住宅领域领先的电子商务网站
2019/11/21 全球购物
消防安全汇报材料
2014/02/08 职场文书
教师应聘自荐信范文
2014/03/14 职场文书
四议两公开实施方案
2014/03/28 职场文书
情人节寄语大全
2014/04/11 职场文书
爱心捐书倡议书
2015/04/27 职场文书
2015年小学校长工作总结
2015/05/19 职场文书
2015中学教师个人工作总结
2015/07/22 职场文书
关爱空巢老人感想
2015/08/11 职场文书
导游词之崇武古城
2019/10/07 职场文书