python爬虫利器之requests库的用法(超全面的爬取网页案例)


Posted in Python onDecember 17, 2020

requests库

利用pip安装:
pip install requests

基本请求

req = requests.get("https://www.baidu.com/")
req = requests.post("https://www.baidu.com/")
req = requests.put("https://www.baidu.com/")
req = requests.delete("https://www.baidu.com/")
req = requests.head("https://www.baidu.com/")
req = requests.options(https://www.baidu.com/)

1.get请求

参数是字典,我们可以传递json类型的参数:

import requests
from fake_useragent import UserAgent#请求头部库
headers = {"User-Agent":UserAgent().random}#获取一个随机的请求头
url = "https://www.baidu.com/s"#网址
params={
  "wd":"豆瓣"  #网址的后缀
}

requests.get(url,headers=headers,params=params)

python爬虫利器之requests库的用法(超全面的爬取网页案例)

返回了状态码,所以我们要想获取内容,需要将其转成text:

#get请求

headers = {"User-Agent":UserAgent().random}
url = "https://www.baidu.com/s"
params={
  "wd":"豆瓣"
}

response = requests.get(url,headers=headers,params=params)
response.text

2.post 请求

参数也是字典,也可以传递json类型的参数:

import requests 
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().random}

url = "https://www.baidu.cn/index/login/login" #登录账号密码的网址
params = {
  "user":"1351351335",#账号
  "password":"123456"#密码
}

response = requests.post(url,headers=headers,data=params)
response.text

python爬虫利器之requests库的用法(超全面的爬取网页案例)

因为这里需要一个登录的网页,我这里就随便用了一个,没有登录,所以显示的结果是这样的,如果想要测试登录的效果,请找一个登录的页面去尝试一下。

3.IP代理

采集时为避免被封IP,经常会使用代理,requests也有相应 的proxies属性。

#IP代理

import requests 
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().random}
url = "http://httpbin.org/get" #返回当前IP的网址

proxies = {
  "http":"http://yonghuming:123456@192.168.1.1:8088"#http://用户名:密码@IP:端口号
  #"http":"https://182.145.31.211:4224"# 或者IP:端口号
}

requests.get(url,headers=headers,proxies=proxies)

代理IP可以去:快代理去找,也可以去购买。
http://httpbin.org/get。这个网址是查看你现在的信息:

python爬虫利器之requests库的用法(超全面的爬取网页案例)

4.设置访问超时时间

可以通过timeout属性设置超时时间,一旦超过这个时间还没获取到响应内容,就会提示错误。

#设置访问时间
requests.get("http://baidu.com/",timeout=0.1)

python爬虫利器之requests库的用法(超全面的爬取网页案例)

5.证书问题(SSLError:HTTP)

ssl验证。

import requests 
from fake_useragent import UserAgent #请求头部库

url = "https://www.12306.cn/index/" #需要证书的网页地址
headers = {"User-Agent":UserAgent().random}#获取一个随机请求头

requests.packages.urllib3.disable_warnings()#禁用安全警告
response = requests.get(url,verify=False,headers=headers)
response.encoding = "utf-8" #用来显示中文,进行转码
response.text

python爬虫利器之requests库的用法(超全面的爬取网页案例)

6.session自动保存cookies

import requests
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().chrome}
login_url = "https://www.baidu.cn/index/login/login" #需要登录的网页地址
params = {
  "user":"yonghuming",#用户名
  "password":"123456"#密码
}
session = requests.Session() #用来保存cookie

#直接用session 歹意requests 
response = session.post(login_url,headers=headers,data=params)

info_url = "https://www.baidu.cn/index/user.html" #登录完账号密码以后的网页地址
resp = session.get(info_url,headers=headers)
resp.text

因为我这里没有使用需要账号密码的网页,所以显示这样:

python爬虫利器之requests库的用法(超全面的爬取网页案例)

我获取了一个智慧树的网页

#cookie 

import requests
from fake_useragent import UserAgent

headers = {"User-Agent":UserAgent().chrome}
login_url = "https://passport.zhihuishu.com/login?service=https://onlineservice.zhihuishu.com/login/gologin" #需要登录的网页地址
params = {
  "user":"12121212",#用户名
  "password":"123456"#密码
}
session = requests.Session() #用来保存cookie

#直接用session 歹意requests 
response = session.post(login_url,headers=headers,data=params)

info_url = "https://onlne5.zhhuishu.com/onlinWeb.html#/stdetInex" #登录完账号密码以后的网页地址
resp = session.get(info_url,headers=headers)
resp.encoding = "utf-8"
resp.text

python爬虫利器之requests库的用法(超全面的爬取网页案例)

7.获取响应信息

代码 含义
resp.json() 获取响应内容 (以json字符串)
resp.text 获取相应内容(以字符串)
resp.content 获取响应内容(以字节的方式)
resp.headers 获取响应头内容
resp.url 获取访问地址
resp.encoding 获取网页编码
resp.request.headers 请求头内容
resp.cookie 获取cookie

到此这篇关于python爬虫利器之requests库的用法(超全面的爬取网页案例)的文章就介绍到这了,更多相关python爬虫requests库用法内容请搜索三水点靠木以前的文章或继续浏览下面的相关文章希望大家以后多多支持三水点靠木!

Python 相关文章推荐
python 图片验证码代码
Dec 07 Python
python通过urllib2爬网页上种子下载示例
Feb 24 Python
python实现zencart产品数据导入到magento(python导入数据)
Apr 03 Python
python实现文本文件合并
Dec 29 Python
浅析python继承与多重继承
Sep 13 Python
WxPython实现无边框界面
Nov 18 Python
Python用K-means聚类算法进行客户分群的实现
Aug 23 Python
Python 实现PS滤镜的旋涡特效
Dec 03 Python
anaconda升级sklearn版本的实现方法
Feb 22 Python
Python爬取科目四考试题库的方法实现
Mar 30 Python
python全面解析接口返回数据
Feb 12 Python
python基础之//、/与%的区别详解
Jun 10 Python
python使用smtplib模块发送邮件
Dec 17 #Python
python实现计算器简易版
Dec 17 #Python
利用Python实现自动扫雷小脚本
Dec 17 #Python
用python读取xlsx文件
Dec 17 #Python
Python实现自动整理文件的脚本
Dec 17 #Python
Python用access判断文件是否被占用的实例方法
Dec 17 #Python
Python实例教程之检索输出月份日历表
Dec 16 #Python
You might like
PHP simple_html_dom.php+正则 采集文章代码
2009/12/24 PHP
浅谈Laravel队列实现原理解决问题记录
2017/08/19 PHP
表格奇偶行设置不同颜色的核心JS代码
2013/12/24 Javascript
JS封装cookie操作函数实例(设置、读取、删除)
2015/11/17 Javascript
实例剖析AngularJS框架中数据的双向绑定运用
2016/03/04 Javascript
jquery ajax结合thinkphp的getjson实现跨域的方法
2016/06/06 Javascript
jQuery插件echarts实现的去掉X轴、Y轴和网格线效果示例【附demo源码下载】
2017/03/04 Javascript
纯javascript前端实现base64图片下载(兼容IE10+)
2018/09/14 Javascript
小程序实现留言板
2018/11/02 Javascript
详解Angular Forms中自定义ngModel绑定值的方式
2018/12/10 Javascript
解决iview table组件里的 固定列 表格不自适应的问题
2020/11/13 Javascript
linux系统使用python监测系统负载脚本分享
2014/01/15 Python
用Python制作简单的钢琴程序的教程
2015/04/01 Python
在Django中创建第一个静态视图
2015/07/15 Python
详解python执行shell脚本创建用户及相关操作
2019/04/11 Python
python安装scipy的步骤解析
2019/09/28 Python
Python换行与不换行的输出实例
2020/02/19 Python
解决Python pip 自动更新升级失败的问题
2020/02/21 Python
使用python3 实现插入数据到mysql
2020/03/02 Python
利用Python实现朋友圈中的九宫格图片效果
2020/09/03 Python
HTML5+CSS3 诱人的实例:3D立方体旋转动画实例
2016/12/30 HTML / CSS
捷克移动配件网上商店:ProMobily.cz
2019/03/15 全球购物
木马的传播途径主要有哪些
2016/04/08 面试题
IBatis持久层技术
2016/07/18 面试题
蟋蟀的住宅教学反思
2014/04/26 职场文书
学习型党组织心得体会
2014/09/12 职场文书
工伤事故赔偿协议书范文
2014/09/24 职场文书
工作失职检讨书(精华篇)
2014/10/15 职场文书
2014年人事部工作总结
2014/12/03 职场文书
读后感作文评语
2014/12/25 职场文书
无婚姻登记记录证明
2015/06/18 职场文书
人生感悟经典句子
2019/08/20 职场文书
【海涛dota解说】一房久违的影魔魂守二连发
2022/04/01 DOTA
排查并解决MySQL生产库内存使用率高的报警
2022/04/11 MySQL
nginx访问报403错误的几种情况详解
2022/07/23 Servers
Python中的 No Module named ***问题及解决
2022/07/23 Python