Python 爬虫实现增加播客访问量的方法实现


Posted in Python onOctober 31, 2019

一、序言:

世界 1024 程序猿节日不加班,闲着没事儿。。。随手写了个播客访问量爬虫玩玩,访问量过万不是事儿!!!每个步骤注释都很清晰,代码仅供学习参考!

---- Nick.Peng

二、所需环境:

Python3.x
相关模块: requests、json、lxml、urllib、bs4、fake_useragent

三、增加Blog访问量代码如下:

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# @Author: Nick
# @Date:  2019-10-24 15:40:58
# @Last Modified by:  Nick
# @Last Modified time: 2019-10-24 16:54:31
import random
import re
import time
import urllib
import requests

from bs4 import BeautifulSoup
from fake_useragent import UserAgent

try:
  from lxml import etree
except Exception as e:
  import lxml.html
  # 实例化一个etree对象(解决通过from lxml import etree导包失败)
  etree = lxml.html.etree

# 实例化UserAgent对象,用于产生随机UserAgent
ua = UserAgent()


class BlogSpider(object):
  """
  Increase the number of CSDN blog visits.
  """

  def __init__(self):
    self.url = "https://blog.csdn.net/PY0312/article/list/{}"
    self.headers = {
      "Referer": "https://blog.csdn.net/PY0312/",
      "User-Agent": ua.random
    }
    self.firefoxHead = {
      "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0"}
    self.IPRegular = r"(([1-9]?\d|1\d{2}|2[0-4]\d|25[0-5]).){3}([1-9]?\d|1\d{2}|2[0-4]\d|25[0-5])"

  def send_request(self, num):
    """
    模拟浏览器发起请求
    :param num: num
    :return: html_str
    """
    html_str = requests.get(self.url.format(
      num), headers=self.headers).content.decode()
    # print(html_str)

    return html_str

  def parse_data(self, html_str):
    """
    用于解析发起请求返回的数据
    :param html_str:
    :return: each_page_urls
    """
    # 将返回的 html字符串 转换为 element对象,用于xpath操作
    element_obj = etree.HTML(html_str)
    # print(element_obj)

    # 获取每一页所有blog的url
    each_page_urls = element_obj.xpath(
      '//*[@id="mainBox"]/main/div[2]/div/h4/a/@href')
    # print(each_page_urls)

    return each_page_urls

  def parseIPList(self, url="http://www.xicidaili.com/"):
    """
    爬取最新代理ip,来源:西刺代理
    注意:西刺代理容易被封,如遇到IP被封情况,采用以下两种方法即可解决:
    方法一:请参考我上一篇博客《Python 实现快代理IP爬虫》 ===> 喜欢研究的同学,可参考对接此接口
    方法二:直接屏蔽掉此接口,不使用代理也能正常使用
    :param url: "http://www.xicidaili.com/"
    :return: 代理IP列表ips
    """
    ips = []
    request = urllib.request.Request(url, headers=self.firefoxHead)
    response = urllib.request.urlopen(request)
    soup = BeautifulSoup(response, "lxml")
    tds = soup.find_all("td")
    for td in tds:
      string = str(td.string)
      if re.search(self.IPRegular, string):
        ips.append(string)
    # print(ips)
    return ips

  def main(self, total_page, loop_times, each_num):
    """
    调度方法
    :param total_page: 设置博客总页数
    :param loop_times: 设置循环次数
    :param each_num: 设置每一页要随机挑选文章数
    :return:
    """
    i = 0
    # 根据设置次数,打开循环
    while i < loop_times:
      # 遍历,得到每一页的页码
      for j in range(total_page):
        # 拼接每一页的url,并模拟发送请求, 返回响应数据
        html_str = self.send_request(j + 1)

        # 解析响应数据,得到每一页所有博文的url
        each_page_urls = self.parse_data(html_str)

        # 调用parseIPList随机产生代理IP,防反爬
        # ips = self.parseIPList()
        # proxies = {"http": "{}:8080".format(
        #   ips[random.randint(0, 40)])}

        # 遍历,每一页随机挑选each_num篇文章
        for x in range(each_num):
          # 随机抽取每一页的一篇博文进行访问,防反爬
          current_url = random.choice(each_page_urls)
          status = True if requests.get(
            current_url, headers=self.headers).content.decode() else False
          print("当前正在访问的文章是:{},访问状态:{}".format(current_url, status))
          time.sleep(1)  # 延时1秒,防反爬
        time.sleep(1)  # 延时1秒,防反爬
      i += 1


if __name__ == '__main__':
  bs = BlogSpider()
  bs.main(7, 200, 3) # 参数参照main方法说明,酌情设置

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持三水点靠木。

Python 相关文章推荐
Python BeautifulSoup中文乱码问题的2种解决方法
Apr 22 Python
Python提取网页中超链接的方法
Sep 18 Python
python 中split 和 strip的实例详解
Jul 12 Python
Pycharm编辑器技巧之自动导入模块详解
Jul 18 Python
Python实现字典按照value进行排序的方法分析
Dec 23 Python
Python使用Dijkstra算法实现求解图中最短路径距离问题详解
May 16 Python
基于wxPython的GUI实现输入对话框(1)
Feb 27 Python
关于Python形参打包与解包小技巧分享
Aug 24 Python
浅谈python print(xx, flush = True) 全网最清晰的解释
Feb 21 Python
Python 生成VOC格式的标签实例
Mar 10 Python
Python图像处理之膨胀与腐蚀的操作
Feb 07 Python
python 基于DDT实现数据驱动测试
Feb 18 Python
基于Python+Appium实现京东双十一自动领金币功能
Oct 31 #Python
如何关掉pycharm中的python console(图解)
Oct 31 #Python
使用python实现男神女神颜值打分系统(推荐)
Oct 31 #Python
python实现根据文件格式分类
Oct 31 #Python
Python简易计算器制作方法代码详解
Oct 31 #Python
python3 pillow模块实现简单验证码
Oct 31 #Python
利用Python校准本地时间的方法教程
Oct 31 #Python
You might like
用PHP中的 == 运算符进行字符串比较
2006/11/26 PHP
使用php统计字符串中中英文字符的个数
2013/06/23 PHP
ThinkPHP标签制作教程
2014/07/10 PHP
php动态生成版权所有信息的方法
2015/03/24 PHP
分享一个漂亮的php验证码类
2016/09/29 PHP
php中错误处理操作实例分析
2019/08/23 PHP
Opacity.js
2007/01/22 Javascript
锋利的jQuery 要点归纳(三) jQuery中的事件和动画(下:动画篇)
2010/03/24 Javascript
让textarea自动调整大小的js代码
2011/04/12 Javascript
关于js datetime的那点事
2011/11/15 Javascript
jQuery插件分享之分页插件jqPagination
2014/06/06 Javascript
使用AngularJS和PHP的Laravel实现单页评论的方法
2015/06/19 Javascript
js基于面向对象实现网页TAB选项卡菜单效果代码
2015/09/09 Javascript
jQuery实现简单的文件上传进度条效果
2020/03/26 Javascript
javascript匀速运动实现方法分析
2016/01/08 Javascript
快速掌握Node.js之Window下配置NodeJs环境
2016/03/21 NodeJs
vue.js学习之UI组件开发教程
2017/07/03 Javascript
利用原生js实现html5小游戏之打砖块(附源码)
2018/01/03 Javascript
Angular4 反向代理Details实践
2018/05/30 Javascript
微信小程序登录换取token的教程
2018/05/31 Javascript
详解如何解决vue开发请求数据跨域的问题(基于浏览器的配置解决)
2018/11/12 Javascript
js指定日期增加指定月份的实现方法
2018/12/19 Javascript
在vue中配置不同的代理同时访问不同的后台操作
2020/09/11 Javascript
JS创建自定义对象的六种方法总结
2020/12/15 Javascript
[01:30]我们共输赢 完美世界城市挑战赛开启全新赛季
2019/04/19 DOTA
Flask框架使用DBUtils模块连接数据库操作示例
2018/07/20 Python
Python 实现域名解析为ip的方法
2019/02/14 Python
Django上线部署之IIS的配置方法
2019/08/22 Python
使用pytorch和torchtext进行文本分类的实例
2020/01/08 Python
Pytorch 使用CNN图像分类的实现
2020/06/16 Python
财务人员个人自荐信范文
2013/09/26 职场文书
团代会邀请函
2015/02/02 职场文书
个园导游词
2015/02/04 职场文书
python基础之函数的定义和调用
2021/10/24 Python
JPA 通过Specification如何实现复杂查询
2021/11/23 Java/Android
Java 中的 Lambda List 转 Map 的多种方法详解
2022/07/07 Java/Android