python爬虫爬取某站上海租房图片


Posted in Python onFebruary 04, 2018

对于一个net开发这爬虫真真的以前没有写过。这段时间开始学习python爬虫,今天周末无聊写了一段代码爬取上海租房图片,其实很简短就是利用爬虫的第三方库Requests与BeautifulSoup。python 版本:python3.6 ,IDE :pycharm。其实就几行代码,但希望没有开发基础的人也能一下子看明白,所以大神请绕行。

第三方库首先安装

我是用的pycharm所以另为的脚本安装我这就不介绍了。

python爬虫爬取某站上海租房图片

如上图打开默认设置选择Project Interprecter,双击pip或者点击加号,搜索要安装的第三方库。其中如果建立的项目多记得Project Interprecter要选择正确的安装位置不然无法导入。

Requests库

requests库的官方定义:Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用。其实他就是请求网络获取网页数据的。

import requests
header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
res=requests.get('http://sh.58.com/zufang/',headers=header)
try:
  print(res.text);
except ConnectionError:
  print('访问被拒绝!!!')

结果如下:

python爬虫爬取某站上海租房图片

其中Request Headers的参数如下:

python爬虫爬取某站上海租房图片

#headers的一些属性:
#Accept:指定客户端能够接收的内容类型,内容类型的先后次序表示客户都接收的先后次序
#Accept-Lanuage:指定HTTP客户端浏览器用来展示返回信息优先选择的语言
#Accept-Encoding指定客户端浏览器可以支持的web服务器返回内容压缩编码类型。表示允许服务器在将输出内容发送到客户端以前进行压缩,以节约带宽。而这里设置的就是客户端浏览器所能够支持的返回压缩格式。
#Accept-Charset:HTTP客户端浏览器可以接受的字符编码集
# User-Agent : 有些服务器或 Proxy 会通过该值来判断是否是浏览器发出的请求
# Content-Type : 在使用 REST 接口时,服务器会检查该值,用来确定 HTTP Body 中的内容该怎样解析。
# application/xml : 在 XML RPC,如 RESTful/SOAP 调用时使用
# application/json : 在 JSON RPC 调用时使用
# application/x-www-form-urlencoded : 浏览器提交 Web 表单时使用
# 在使用服务器提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致服务器拒绝服务

BeautifulSoup库

BeautifulSoup可以轻松的解析Requests库请求的页面,并把页面源代码解析为Soup文档,一边过滤提取数据。这是bs4.2的文档。

Beautiful Soup支持Python标准库中的HTML解析器,还支持一些第三方的解析器,如果我们不安装它,则 Python 会使用 Python默认的解析器,其中lxml 据说是相对而言比较强大的我下面的暗示是python 标准库的。

python爬虫爬取某站上海租房图片

选择器select

# 选择所有div标签
soup.select("div")
# 选择所有p标签中的第三个标签
soup.select("p:nth-of-type(3)")
相当于soup.select(p)[2]
# 选择div标签下的所有img标签
soup.select("div img")
# 选择div标签下的直接a子标签
soup.select("div > a")
# 选择id=link1后的所有兄弟节点标签
soup.select("#link1 ~ .mybro")
# 选择id=link1后的下一个兄弟节点标签
soup.select("#link1 + .mybro")
# 选择a标签,其类属性为className的标签
soup.select("a .className")
# 选择a标签,其id属性为idName的标签
soup.select("a #idName")
# 选择a标签,其属性中存在attrName的所有标签
soup.select("a[attrName]")
# 选择a标签,其属性href=http://wangyanling.com的所有标签
soup.select("a[href='http://wangyanling.com']")
# 选择a标签,其href属性以http开头
soup.select('a[href^="http"]')
# 选择a标签,其href属性以lacie结尾
soup.select('a[href$="lacie"]')
# 选择a标签,其href属性包含.com
soup.select('a[href*=".com"]')
# 从html中排除某标签,此时soup中不再有script标签
[s.extract() for s in soup('script')]
# 如果想排除多个呢
[s.extract() for s in soup(['script','fram']

BeautifulSoup库需要学习的知识点,请参考bs4.2的文档。在这不再过多叙述。

import requests
from bs4 import BeautifulSoup
header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
res=requests.get('http://cd.58.com/zufang/',headers=header)
soup=BeautifulSoup(res.text,'html.parser')
print(soup.prettify())

案例:爬取上海租房图片

import requests
import urllib.request
import os
import time
from bs4 import BeautifulSoup
header={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.62 Safari/537.36'}
url=['http://sh.58.com/zufang/pn{}/?ClickID=2'.format(number) for number in range(6,51)]#分页抓取
adminCout=6
for arurl in url:
  adminCout=adminCout+1
  res=requests.get(arurl,headers=header)
  soup=BeautifulSoup(res.text,'html.parser')
  arryImg=soup.select('.img_list img')
  print(arryImg)
  count = 0;
  for img in arryImg:
    print(img['lazy_src'])
    _url = img['lazy_src']
    pathName = "E:\\2333\\" + str(adminCout)+"_"+str(count) + ".jpg" # 设置路径和文件名
    result = urllib.request.urlopen(_url) # 打开链接,和python2.x不同请注意了
    data = result.read() # 否则开始下载到本地
    with open(pathName, "wb") as code:
      code.write(data)
      code.close()
      count = count + 1 # 计数+1
      print("正在下载第:", count)
    time.sleep(30)

只是实现功能,至于代码结果如下:

python爬虫爬取某站上海租房图片

结语:

对于python并非为了从net跳出来,学习python只是感兴趣,但是通过这段时间的学习确实有些思想从net的思路中跳了出来,接下来一年的业余时间应该都会花在学习python上,还希望自己能坚持下去。这应该是2017年最后一篇文章,在这给大家拜个早年。

Python 相关文章推荐
详解MySQL数据类型int(M)中M的含义
Nov 20 Python
Python学习之Anaconda的使用与配置方法
Jan 04 Python
解决python大批量读写.doc文件的问题
May 08 Python
浅谈python中str字符串和unicode对象字符串的拼接问题
Dec 04 Python
Django中更改默认数据库为mysql的方法示例
Dec 05 Python
Python File(文件) 方法整理
Feb 18 Python
Python+OpenCV+pyQt5录制双目摄像头视频的实例
Jun 28 Python
Python的Tkinter点击按钮触发事件的例子
Jul 19 Python
python的help函数如何使用
Jun 11 Python
使用python matploblib库绘制准确率,损失率折线图
Jun 16 Python
如何把python项目部署到linux服务器
Aug 26 Python
linux系统下pip升级报错的解决方法
Jan 31 Python
Python爬虫实现百度图片自动下载
Feb 04 #Python
Python中的defaultdict与__missing__()使用介绍
Feb 03 #Python
Python网络爬虫神器PyQuery的基本使用教程
Feb 03 #Python
numpy.random.seed()的使用实例解析
Feb 03 #Python
Python网络爬虫中的同步与异步示例详解
Feb 03 #Python
Python模块文件结构代码详解
Feb 03 #Python
Python处理文本换行符实例代码
Feb 03 #Python
You might like
php制作中间带自己定义图片二维码的方法
2014/01/27 PHP
php+js iframe实现上传头像界面无跳转
2014/04/29 PHP
php实现源代码加密的方法
2015/07/11 PHP
php实现PDO中捕获SQL语句错误的方法
2017/02/16 PHP
php实现生成code128条形码的方法详解
2017/07/19 PHP
PHP PDOStatement::bindValue讲解
2019/01/30 PHP
一句话JavaScript表单验证代码
2009/08/02 Javascript
Jqyery中同等与js中windows.onload的应用
2011/05/10 Javascript
仅img元素创建后不添加到文档中会执行onload事件的解决方法
2011/07/31 Javascript
很好用的js日历算法详细代码
2013/03/07 Javascript
jQuery在iframe中无法弹出对话框的解决方法
2014/01/12 Javascript
js判断是否是手机页面
2017/03/17 Javascript
微信小程序 request接口的封装实例代码
2017/04/26 Javascript
关于axios不能使用Vue.use()浅析
2018/01/12 Javascript
JavaScript canvas绘制渐变颜色的矩形
2020/02/18 Javascript
在vue项目实现一个ctrl+f的搜索功能
2020/02/28 Javascript
JavaScript实现放大镜效果代码示例
2020/04/29 Javascript
Vue通过provide inject实现组件通信
2020/09/03 Javascript
python遍历一个目录,输出所有的文件名的实例
2018/04/23 Python
python中map的基本用法示例
2018/09/10 Python
python+pyqt5实现24点小游戏
2019/01/24 Python
Python3利用Dlib实现摄像头实时人脸检测和平铺显示示例
2019/02/21 Python
详解pandas.DataFrame中删除包涵特定字符串所在的行
2019/04/04 Python
Python对ElasticSearch获取数据及操作
2019/04/24 Python
python将unicode和str互相转化的实现
2020/05/11 Python
Python使用re模块验证危险字符
2020/05/21 Python
css3中单位px,em,rem,vh,vw,vmin,vmax的区别及浏览器支持情况
2016/12/06 HTML / CSS
美国山地自行车、露营、户外装备和服装购物网站:Aventuron
2018/05/05 全球购物
简历中个人自我评价分享
2014/03/15 职场文书
药剂专业个人求职信范文
2014/04/29 职场文书
做一个有道德的人活动实施方案
2014/08/23 职场文书
汽车服务工程专业自荐信
2014/09/02 职场文书
2014年企业团支部工作总结
2014/12/10 职场文书
银行文明优质服务培训心得体会
2016/01/09 职场文书
优秀共产党员事迹材料2016
2016/02/29 职场文书
redis sentinel监控高可用集群实现的配置步骤
2022/04/01 Redis