Scrapy框架爬取西刺代理网免费高匿代理的实现代码


Posted in Python onFebruary 22, 2019

分析

需求:

爬取西刺代理网免费高匿代理,并保存到MySQL数据库中。

这里只爬取前10页中的数据。

Scrapy框架爬取西刺代理网免费高匿代理的实现代码

思路:

  1. 分析网页结构,确定数据提取规则
  2. 创建Scrapy项目
  3. 编写item,定义数据字段
  4. 编写spider,实现数据抓取
  5. 编写Pipeline,保存数据到数据库中
  6. 配置settings.py文件
  7. 运行爬虫项目

代码实现

items.py

import scrapy
class XicidailiItem(scrapy.Item):
  # 国家
  country=scrapy.Field()
  # IP地址
  ip=scrapy.Field()
  # 端口号
  port=scrapy.Field()
  # 服务器地址
  address=scrapy.Field()
  # 是否匿名
  anonymous=scrapy.Field()
  # 类型
  type=scrapy.Field()
  # 速度
  speed=scrapy.Field()
  # 连接时间
  connect_time=scrapy.Field()
  # 存活时间
  alive_time=scrapy.Field()
  # 验证时间
  verify_time=scrapy.Field()

xicidaili_spider.py

# !/usr/bin/env python
# -*- coding:utf-8 -*-
import scrapy
from myscrapy.items import XicidailiItem
class XicidailiSpider(scrapy.Spider):
  name = 'xicidaili'
  allowed_domains=['www.xicidaili.com']
  # start_urls=['http://www.xicidaili.com/nn/1']
  def start_requests(self):
    urls=[]
    for i in range(1,11):
      urls.append('http://www.xicidaili.com/nn/'+str(i))
    for url in urls:
      yield scrapy.Request(url,callback=self.parse,method='GET')
  def parse(self, response):
    tr_list=response.xpath('//table[@id="ip_list"]/tr')
    for tr in tr_list[1:]: # 过滤掉表头行
      item=XicidailiItem()
      item['country']=tr.xpath('./td[1]/img/@alt').extract_first()
      item['ip']=tr.xpath('./td[2]/text()').extract_first()
      item['port']=tr.xpath('./td[3]/text()').extract_first()
      item['address']=tr.xpath('./td[4]/a/text()').extract_first()
      item['anonymous']=tr.xpath('./td[5]/text()').extract_first()
      item['type']=tr.xpath('./td[6]/text()').extract_first()
      item['speed']=tr.xpath('./td[7]/div/@title').re(r'\d{1,3}\.\d{0,}')[0]
      item['connect_time']=tr.xpath('./td[8]/div/@title').re(r'\d{1,3}\.\d{0,}')[0]
      item['alive_time']=tr.xpath('./td[9]/text()').extract_first()
      item['verify_time']=tr.xpath('./td[10]/text()').extract_first()
      yield item

pipelines.py

class XicidailiPipeline(object):
  """
  西刺代理爬虫 item Pipeline
  create table xicidaili(
    id int primary key auto_increment,
    country varchar(10) not null,
    ip varchar(30) not null,
    port varchar(10) not null,
    address varchar(30) not null,
    anonymous varchar(10) not null,
    type varchar(20) not null,
    speed varchar(10) not null,
    connect_time varchar(20) not null,
    alive_time varchar(20) not null,
    verify_time varchar(20) not null);
  """
  def __init__(self):
    self.connection = pymysql.connect(host='localhost',
                     user='root',
                     password='123456',
                     db='mydb',
                     charset='utf8', # 不能用utf-8
                     cursorclass=pymysql.cursors.DictCursor)
  def process_item(self,item,spider):
    with self.connection.cursor() as cursor:
      sql='insert into xicidaili' \
        '(country,ip,port,address,anonymous,type,speed,connect_time,alive_time,verify_time) values' \
        '(%s,%s,%s,%s,%s,%s,%s,%s,%s,%s);'
      args=(item['country'],item['ip'],item['port'],item['address'],item['anonymous'],item['type'],item['speed'],item['connect_time'],item['alive_time'],item['verify_time'])
      spider.logger.info(args)
      cursor.execute(sql,args)
    self.connection.commit()
  def close_spider(self,spider):
    self.connection.close()

settings.py

ITEM_PIPELINES = {
  'myscrapy.pipelines.XicidailiPipeline': 300,
}

结果

Scrapy框架爬取西刺代理网免费高匿代理的实现代码

Scrapy框架爬取西刺代理网免费高匿代理的实现代码

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对三水点靠木的支持。如果你想了解更多相关内容请查看下面相关链接

Python 相关文章推荐
pymssql数据库操作MSSQL2005实例分析
May 25 Python
pycharm中连接mysql数据库的步骤详解
May 02 Python
Python实现向服务器请求压缩数据及解压缩数据的方法示例
Jun 09 Python
20个常用Python运维库和模块
Feb 12 Python
Python封装原理与实现方法详解
Aug 28 Python
Python中一般处理中文的几种方法
Mar 06 Python
Python函数参数匹配模型通用规则keyword-only参数详解
Jun 10 Python
选择Python写网络爬虫的优势和理由
Jul 07 Python
python中类的输出或类的实例输出为这种形式的原因
Aug 12 Python
Django如何实现上传图片功能
Aug 16 Python
浅析使用Python搭建http服务器
Oct 27 Python
Python3.7安装pyaudio教程解析
Jul 24 Python
在Python运行时动态查看进程内部信息的方法
Feb 22 #Python
Python开启线程,在函数中开线程的实例
Feb 22 #Python
python 多线程串行和并行的实例
Feb 22 #Python
Python OOP类中的几种函数或方法总结
Feb 22 #Python
VSCode Python开发环境配置的详细步骤
Feb 22 #Python
python中logging模块的一些简单用法的使用
Feb 22 #Python
Python 限制线程的最大数量的方法(Semaphore)
Feb 22 #Python
You might like
fleaphp crud操作之findByField函数的使用方法
2011/04/23 PHP
PHP中::、->、self、$this几种操作符的区别介绍
2013/04/24 PHP
PHP和C#可共用的可逆加密算法详解
2015/10/26 PHP
Zend Framework框架Smarty扩展实现方法
2016/03/22 PHP
老生常谈PHP面向对象之解释器模式
2017/05/17 PHP
AngularJS基础学习笔记之控制器
2015/05/10 Javascript
javascript禁止访客复制网页内容的实现代码
2015/08/05 Javascript
jquery实现定时自动轮播特效
2015/12/10 Javascript
有关jquery与DOM节点操作方法和属性记录
2016/04/15 Javascript
D3.js实现饼状图的方法详解
2016/09/21 Javascript
AngularJS自定义插件实现网站用户引导功能示例
2016/11/07 Javascript
微信小程序Server端环境配置详解(SSL, Nginx HTTPS,TLS 1.2 升级)
2017/01/12 Javascript
本地存储localStorage用法详解
2017/07/31 Javascript
基于vue监听滚动事件实现锚点链接平滑滚动的方法
2018/01/17 Javascript
解决layer.confirm选择完之后消息框不消失的问题
2019/09/16 Javascript
JS实现字体背景跑马灯
2020/01/06 Javascript
vue 子组件修改data或调用操作
2020/08/07 Javascript
基于JavaScript实现大文件上传后端代码实例
2020/08/18 Javascript
详解JavaScript中的数据类型,以及检测数据类型的方法
2020/09/17 Javascript
[00:23]魔方之谜解锁款式
2018/12/20 DOTA
跟老齐学Python之使用Python查询更新数据库
2014/11/25 Python
Python中的rfind()方法使用详解
2015/05/19 Python
Python实现二分查找与bisect模块详解
2017/01/13 Python
Python实现分段线性插值
2018/12/17 Python
Python 使用 attrs 和 cattrs 实现面向对象编程的实践
2019/06/12 Python
对Pytorch神经网络初始化kaiming分布详解
2019/08/18 Python
基于python实现获取网页图片过程解析
2020/05/11 Python
PyCharm Ctrl+Shift+F 失灵的简单有效解决操作
2021/01/15 Python
非洲NO.1网上商店:Jumia肯尼亚
2016/08/18 全球购物
美国领先的家居装饰和礼品商店:Kirkland’s
2017/01/30 全球购物
Nebula美国官网:便携式投影仪
2019/03/15 全球购物
The North Face意大利官网:服装、背包和鞋子
2020/06/17 全球购物
简历中个人自我评价分享
2014/03/15 职场文书
大学学生会主席竞选稿
2015/11/19 职场文书
CSS极坐标的实例代码
2021/06/03 HTML / CSS
使用HBuilder制作一个简单的HTML5网页
2022/07/07 HTML / CSS