python抓取搜狗微信公众号文章


Posted in Python onApril 01, 2019

初学python,抓取搜狗微信公众号文章存入mysql

mysql表:

python抓取搜狗微信公众号文章

python抓取搜狗微信公众号文章

代码:

import requests
import json
import re
import pymysql
 
# 创建连接
conn = pymysql.connect(host='你的数据库地址', port=端口, user='用户名', passwd='密码', db='数据库名称', charset='utf8')
# 创建游标
cursor = conn.cursor()

cursor.execute("select * from hd_gzh")
effect_row = cursor.fetchall()
from bs4 import BeautifulSoup

socket.setdefaulttimeout(60)
count = 1
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:65.0) Gecko/20100101 Firefox/65.0'}
#阿布云ip代理暂时不用
# proxyHost = "http-cla.abuyun.com"
# proxyPort = "9030"
# # 代理隧道验证信息
# proxyUser = "H56761606429T7UC"
# proxyPass = "9168EB00C4167176"

# proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
#  "host" : proxyHost,
#  "port" : proxyPort,
#  "user" : proxyUser,
#  "pass" : proxyPass,
# }

# proxies = {
#   "http" : proxyMeta,
#   "https" : proxyMeta,
# }

#查看是否已存在数据
def checkData(name):
  sql = "select * from gzh_article where title = '%s'"
  data = (name,)
  count = cursor.execute(sql % data)
  conn.commit()
  if(count!=0):
    return False
  else:
    return True
#插入数据
def insertData(title,picture,author,content):
  sql = "insert into gzh_article (title,picture,author,content) values ('%s', '%s','%s', '%s')"
  data = (title,picture,author,content)
  cursor.execute(sql % data)
  conn.commit()
  print("插入一条数据")
  return
  
for row in effect_row:
  newsurl = 'https://weixin.sogou.com/weixin?type=1&s_from=input&query=' + row[1] + '&ie=utf8&_sug_=n&_sug_type_='
  res = requests.get(newsurl,headers=headers)
  res.encoding = 'utf-8'
  soup = BeautifulSoup(res.text,'html.parser')
  url = 'https://weixin.sogou.com' + soup.select('.tit a')[0]['href']
  res2 = requests.get(url,headers=headers)
  res2.encoding = 'utf-8'
  soup2 = BeautifulSoup(res2.text,'html.parser')
  pattern = re.compile(r"url \+= '(.*?)';", re.MULTILINE | re.DOTALL)
  script = soup2.find("script")
  url2 = pattern.search(script.text).group(1)
  res3 = requests.get(url2,headers=headers)
  res3.encoding = 'utf-8'
  soup3 = BeautifulSoup(res3.text,'html.parser')
  print()
  pattern2 = re.compile(r"var msgList = (.*?);$", re.MULTILINE | re.DOTALL)
  script2 = soup3.find("script", text=pattern2)
  s2 = json.loads(pattern2.search(script2.text).group(1))
  #等待10s
  time.sleep(10)
  
  for news in s2["list"]:
    articleurl = "https://mp.weixin.qq.com"+news["app_msg_ext_info"]["content_url"]
    articleurl = articleurl.replace('&','&')
    res4 = requests.get(articleurl,headers=headers)
    res4.encoding = 'utf-8'
    soup4 = BeautifulSoup(res4.text,'html.parser')
    if(checkData(news["app_msg_ext_info"]["title"])):
      insertData(news["app_msg_ext_info"]["title"],news["app_msg_ext_info"]["cover"],news["app_msg_ext_info"]["author"],pymysql.escape_string(str(soup4)))
    count += 1
    #等待5s
    time.sleep(10)
    for news2 in news["app_msg_ext_info"]["multi_app_msg_item_list"]:
      articleurl2 = "https://mp.weixin.qq.com"+news2["content_url"]
      articleurl2 = articleurl2.replace('&','&')
      res5 = requests.get(articleurl2,headers=headers)
      res5.encoding = 'utf-8'
      soup5 = BeautifulSoup(res5.text,'html.parser')
      if(checkData(news2["title"])):
        insertData(news2["title"],news2["cover"],news2["author"],pymysql.escape_string(str(soup5)))
      count += 1
      #等待10s
      time.sleep(10)
cursor.close()
conn.close()
print("操作完成")

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持三水点靠木。

Python 相关文章推荐
python二叉树的实现实例
Nov 21 Python
Python写的Discuz7.2版faq.php注入漏洞工具
Aug 06 Python
Python中Class类用法实例分析
Nov 12 Python
python+VTK环境搭建及第一个简单程序代码
Dec 13 Python
Python爬虫框架scrapy实现downloader_middleware设置proxy代理功能示例
Aug 04 Python
Python中实现单例模式的n种方式和原理
Nov 14 Python
python实现简单的文字识别
Nov 27 Python
Python实现的多进程拷贝文件并显示百分比功能示例
Apr 09 Python
PyQt5下拉式复选框QComboCheckBox的实例
Jun 25 Python
Python+OpenCV+图片旋转并用原底色填充新四角的例子
Dec 12 Python
基于pycharm 项目和项目文件命名规则的介绍
Jan 15 Python
详解NumPy中的线性关系与数据修剪压缩
May 25 Python
Python使用os.listdir()和os.walk()获取文件路径与文件下所有目录的方法
Apr 01 #Python
python装饰器简介---这一篇也许就够了(推荐)
Apr 01 #Python
Python批量删除只保留最近几天table的代码实例
Apr 01 #Python
Python中的Socket 与 ScoketServer 通信及遇到问题解决方法
Apr 01 #Python
python assert的用处示例详解
Apr 01 #Python
使用Python操作FTP实现上传和下载的方法
Apr 01 #Python
Python提取特定时间段内数据的方法实例
Apr 01 #Python
You might like
PHP Opcache安装和配置方法介绍
2015/05/28 PHP
浅谈PHP面向对象之访问者模式+组合模式
2017/05/22 PHP
PHP基于SimpleXML生成和解析xml的方法示例
2017/07/17 PHP
PHP实现正则匹配所有括号中的内容
2018/06/22 PHP
php生成随机数/生成随机字符串的方法小结【5种方法】
2020/05/27 PHP
基于逻辑运算的简单权限系统(实现) JS 版
2007/03/24 Javascript
漂亮的widgets,支持换肤和后期开发新皮肤(2007-4-27已更新1.7alpha)
2007/04/27 Javascript
JavaScript高级程序设计(第3版)学习笔记13 ECMAScript5新特性
2012/10/11 Javascript
从数组中随机取x条不重复数据的JS代码
2013/12/24 Javascript
点击弹出层效果&弹出窗口后网页背景变暗效果的实现代码
2014/02/10 Javascript
javascript封装简单实现方法
2015/08/11 Javascript
AngularJS服务service用法总结
2016/12/13 Javascript
JS多文件上传的实例代码
2017/01/11 Javascript
vue子组件使用自定义事件向父组件传递数据
2017/05/27 Javascript
JavaScript表单即时验证 验证不成功不能提交
2017/08/31 Javascript
浅谈angular4实际项目搭建总结
2017/12/01 Javascript
JQuery Ajax动态加载Table数据的实例讲解
2018/08/09 jQuery
vue实现压缩图片预览并上传功能(promise封装)
2019/01/10 Javascript
微信小程序如何实现全局重新加载
2019/06/05 Javascript
vue 公共列表选择组件,引用Vant-UI的样式方式
2020/11/02 Javascript
JavaScript手写数组的常用函数总结
2020/11/22 Javascript
JS模拟实现京东快递单号查询
2020/11/30 Javascript
[16:19]教你分分钟做大人——风暴之灵
2015/03/11 DOTA
Python3连接MySQL(pymysql)模拟转账实现代码
2016/05/24 Python
python操作excel的方法(xlsxwriter包的使用)
2018/06/11 Python
python爬虫容易学吗
2020/06/02 Python
Pytorch生成随机数Tensor的方法汇总
2020/09/09 Python
python中用ctypes模拟点击的实例讲解
2020/11/26 Python
德尔福集团DELPHI的笔试题
2012/02/22 面试题
护理专业毕业生自我鉴定
2013/10/08 职场文书
大学生实习思想汇报
2014/01/12 职场文书
初婚未育证明
2014/01/15 职场文书
任命书范本大全
2014/06/06 职场文书
岗位说明书怎么写
2014/07/30 职场文书
质监局领导班子对照检查材料思想汇报
2014/09/27 职场文书
2016年万圣节活动总结
2016/04/05 职场文书