python爬取新闻门户网站的示例


Posted in Python onApril 25, 2021

项目地址:

https://github.com/Python3Spiders/AllNewsSpider

如何使用

每个文件夹下的代码就是对应平台的新闻爬虫

  1. py 文件直接运行
  2. pyd 文件需要,假设为 pengpai_news_spider.pyd

将 pyd 文件下载到本地,新建项目,把 pyd 文件放进去

项目根目录下新建 runner.py,写入以下代码即可运行并抓取

import pengpai_news_spider
pengpai_news_spider.main()

示例代码

百度新闻

# -*- coding: utf-8 -*-
# 文件备注信息       如果遇到打不开的情况,可以先在浏览器打开一下百度搜索引擎

import requests

from datetime import datetime, timedelta

from lxml import etree

import csv

import os

from time import sleep
from random import randint


def parseTime(unformatedTime):
    if '分钟' in unformatedTime:
        minute = unformatedTime[:unformatedTime.find('分钟')]
        minute = timedelta(minutes=int(minute))
        return (datetime.now() -
                minute).strftime('%Y-%m-%d %H:%M')
    elif '小时' in unformatedTime:
        hour = unformatedTime[:unformatedTime.find('小时')]
        hour = timedelta(hours=int(hour))
        return (datetime.now() -
                hour).strftime('%Y-%m-%d %H:%M')
    else:
        return unformatedTime


def dealHtml(html):
    results = html.xpath('//div[@class="result-op c-container xpath-log new-pmd"]')

    saveData = []

    for result in results:
        title = result.xpath('.//h3/a')[0]
        title = title.xpath('string(.)').strip()

        summary = result.xpath('.//span[@class="c-font-normal c-color-text"]')[0]
        summary = summary.xpath('string(.)').strip()

        # ./ 是直接下级,.// 是直接/间接下级
        infos = result.xpath('.//div[@class="news-source"]')[0]
        source, dateTime = infos.xpath(".//span[last()-1]/text()")[0], \
                           infos.xpath(".//span[last()]/text()")[0]

        dateTime = parseTime(dateTime)

        print('标题', title)
        print('来源', source)
        print('时间', dateTime)
        print('概要', summary)
        print('\n')

        saveData.append({
            'title': title,
            'source': source,
            'time': dateTime,
            'summary': summary
        })
    with open(fileName, 'a+', encoding='utf-8-sig', newline='') as f:
        writer = csv.writer(f)
        for row in saveData:
            writer.writerow([row['title'], row['source'], row['time'], row['summary']])


headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36',
    'Referer': 'https://www.baidu.com/s?rtt=1&bsst=1&cl=2&tn=news&word=%B0%D9%B6%C8%D0%C2%CE%C5&fr=zhidao'
}

url = 'https://www.baidu.com/s'

params = {
    'ie': 'utf-8',
    'medium': 0,
    # rtt=4 按时间排序 rtt=1 按焦点排序
    'rtt': 1,
    'bsst': 1,
    'rsv_dl': 'news_t_sk',
    'cl': 2,
    'tn': 'news',
    'rsv_bp': 1,
    'oq': '',
    'rsv_btype': 't',
    'f': 8,
}


def doSpider(keyword, sortBy = 'focus'):
    '''
    :param keyword: 搜索关键词
    :param sortBy: 排序规则,可选:focus(按焦点排序),time(按时间排序),默认 focus
    :return:
    '''
    global fileName
    fileName = '{}.csv'.format(keyword)

    if not os.path.exists(fileName):
        with open(fileName, 'w+', encoding='utf-8-sig', newline='') as f:
            writer = csv.writer(f)
            writer.writerow(['title', 'source', 'time', 'summary'])

    params['wd'] = keyword
    if sortBy == 'time':
        params['rtt'] = 4

    response = requests.get(url=url, params=params, headers=headers)

    html = etree.HTML(response.text)

    dealHtml(html)

    total = html.xpath('//div[@id="header_top_bar"]/span/text()')[0]

    total = total.replace(',', '')

    total = int(total[7:-1])

    pageNum = total // 10

    for page in range(1, pageNum):
        print('第 {} 页\n\n'.format(page))
        headers['Referer'] = response.url
        params['pn'] = page * 10

        response = requests.get(url=url, headers=headers, params=params)

        html = etree.HTML(response.text)

        dealHtml(html)

        sleep(randint(2, 4))
    ...


if __name__ == "__main__":
    doSpider(keyword = '马保国', sortBy='focus')

以上就是python爬取新闻门户网站的示例的详细内容,更多关于python爬取新闻门户网站的资料请关注三水点靠木其它相关文章!

Python 相关文章推荐
Python中pygame安装方法图文详解
Nov 11 Python
Python搭建FTP服务器的方法示例
Jan 19 Python
Python实现的寻找前5个默尼森数算法示例
Mar 25 Python
python批量修改图片后缀的方法(png到jpg)
Oct 25 Python
Python编程图形库之Pillow使用方法讲解
Dec 28 Python
python中dict使用方法详解
Jul 17 Python
python 中的[:-1]和[::-1]的具体使用
Feb 13 Python
Python使用urllib模块对URL网址中的中文编码与解码实例详解
Feb 18 Python
Python实现AI自动抠图实例解析
Mar 05 Python
python获取linux系统信息的三种方法
Oct 14 Python
python基于机器学习预测股票交易信号
May 25 Python
再谈python_tkinter弹出对话框创建
Mar 20 Python
python自然语言处理之字典树知识总结
Python自然语言处理之切分算法详解
Apr 25 #Python
Python网络编程之ZeroMQ知识总结
Python 文本滚动播放器的实现代码
Apr 25 #Python
Python基于Opencv识别两张相似图片
matplotlib之pyplot模块实现添加子图subplot的使用
python实现简单区块链结构
You might like
PHP数组传递是值传递而非引用传递概念纠正
2013/01/31 PHP
PHP中array_map与array_column之间的关系分析
2014/08/19 PHP
PHP反射实际应用示例
2019/04/03 PHP
深入理解JavaScript系列(27):设计模式之建造者模式详解
2015/03/03 Javascript
javascript实现的简单计时器
2015/07/19 Javascript
js实现微信分享代码
2020/10/11 Javascript
Javascript基于jQuery UI实现选中区域拖拽效果
2016/11/25 Javascript
JavaScript简单验证表单空值及邮箱格式的方法
2017/01/20 Javascript
js输入框使用正则表达式校验输入内容的实例
2017/02/12 Javascript
js实现截图保存图片功能的代码示例
2017/02/16 Javascript
javascript实现table单元格点击展开隐藏效果(实例代码)
2017/04/10 Javascript
docker中编译nodejs并使用nginx启动
2017/06/23 NodeJs
解决vue-cli脚手架打包后vendor文件过大的问题
2018/09/27 Javascript
简单谈谈javascript高级特性
2019/09/04 Javascript
Python多线程下载文件的方法
2015/07/10 Python
简单上手Python中装饰器的使用
2015/07/12 Python
python设计模式大全
2016/06/27 Python
Python中音频处理库pydub的使用教程
2017/06/07 Python
PyTorch读取Cifar数据集并显示图片的实例讲解
2018/07/27 Python
Python中类的创建和实例化操作示例
2019/02/27 Python
介绍一款python类型检查工具pyright(推荐)
2019/07/03 Python
python如何读取bin文件并下发串口
2019/07/05 Python
Python Selenium 设置元素等待的三种方式
2020/03/18 Python
matplotlib 曲线图 和 折线图 plt.plot()实例
2020/04/17 Python
python requests库的使用
2021/01/06 Python
CSS+jQuery实现的在线答题功能
2015/04/25 HTML / CSS
adidas旗下高尔夫装备供应商:TaylorMade Golf(泰勒梅高尔夫)
2016/08/28 全球购物
介绍一下javax.servlet.Servlet接口及其主要方法
2015/11/30 面试题
服务之星获奖感言
2014/01/21 职场文书
餐饮企业总经理岗位职责范文
2014/02/18 职场文书
企业读书活动总结
2014/06/30 职场文书
文员转正自我鉴定怎么写
2014/09/29 职场文书
市委召开党的群众路线教育实践活动总结大会报告
2014/10/21 职场文书
总经理岗位职责范本
2015/04/01 职场文书
2015年七夕情人节活动方案
2015/05/06 职场文书
Linux安装apache服务器的配置过程
2021/11/27 Servers