让python在hadoop上跑起来


Posted in Python onJanuary 27, 2016

本文实例讲解的是一般的hadoop入门程序“WordCount”,就是首先写一个map程序用来将输入的字符串分割成单个的单词,然后reduce这些单个的单词,相同的单词就对其进行计数,不同的单词分别输出,结果输出每一个单词出现的频数。

注意:关于数据的输入输出是通过sys.stdin(系统标准输入)和sys.stdout(系统标准输出)来控制数据的读入与输出。所有的脚本执行之前都需要修改权限,否则没有执行权限,例如下面的脚本创建之前使用“chmod +x mapper.py”

1.mapper.py

#!/usr/bin/env python
import sys

for line in sys.stdin: # 遍历读入数据的每一行
  
  line = line.strip() # 将行尾行首的空格去除
  words = line.split() #按空格将句子分割成单个单词
  for word in words:
    print '%s\t%s' %(word, 1)

2.reducer.py

#!/usr/bin/env python

from operator import itemgetter
import sys

current_word = None # 为当前单词
current_count = 0 # 当前单词频数
word = None

for line in sys.stdin:
  words = line.strip() # 去除字符串首尾的空白字符
  word, count = words.split('\t') # 按照制表符分隔单词和数量
  
  try:
    count = int(count) # 将字符串类型的‘1'转换为整型1
  except ValueError:
    continue

  if current_word == word: # 如果当前的单词等于读入的单词
    current_count += count # 单词频数加1
  else:
    if current_word: # 如果当前的单词不为空则打印其单词和频数
      print '%s\t%s' %(current_word, current_count) 
    current_count = count # 否则将读入的单词赋值给当前单词,且更新频数
    current_word = word

if current_word == word:
  print '%s\t%s' %(current_word, current_count)

在shell中运行以下脚本,查看输出结果:

echo "foo foo quux labs foo bar zoo zoo hying" | /home/wuying/mapper.py | sort -k 1,1 | /home/wuying/reducer.py

# echo是将后面“foo ****”字符串输出,并利用管道符“|”将输出数据作为mapper.py这个脚本的输入数据,并将mapper.py的数据输入到reducer.py中,其中参数sort -k 1,1是将reducer的输出内容按照第一列的第一个字母的ASCII码值进行升序排序

其实,我觉得后面这个reducer.py处理单词频数有点麻烦,将单词存储在字典里面,单词作为‘key',每一个单词出现的频数作为'value',进而进行频数统计感觉会更加高效一点。因此,改进脚本如下:

mapper_1.py

让python在hadoop上跑起来

但是,貌似写着写着用了两个循环,反而效率低了。关键是不太明白这里的current_word和current_count的作用,如果从字面上老看是当前存在的单词,那么怎么和遍历读取的word和count相区别?

下面看一些脚本的输出结果:

让python在hadoop上跑起来

我们可以看到,上面同样的输入数据,同样的shell换了不同的reducer,结果后者并没有对数据进行排序,实在是费解~

让Python代码在hadoop上跑起来!

一、准备输入数据

接下来,先下载三本书:

$ mkdir -p tmp/gutenberg
$ cd tmp/gutenberg
$ wget http://www.gutenberg.org/ebooks/20417.txt.utf-8
$ wget http://www.gutenberg.org/files/5000/5000-8.txt
$ wget http://www.gutenberg.org/ebooks/4300.txt.utf-8

 然后把这三本书上传到hdfs文件系统上:

$ hdfs dfs -mkdir /user/${whoami}/input # 在hdfs上的该用户目录下创建一个输入文件的文件夹
 $ hdfs dfs -put /home/wuying/tmp/gutenberg/*.txt /user/${whoami}/input # 上传文档到hdfs上的输入文件夹中

寻找你的streaming的jar文件存放地址,注意2.6的版本放到share目录下了,可以进入hadoop安装目录寻找该文件:

$ cd $HADOOP_HOME
$ find ./ -name "*streaming*"

然后就会找到我们的share文件夹中的hadoop-straming*.jar文件:

让python在hadoop上跑起来

寻找速度可能有点慢,因此你最好是根据自己的版本号到对应的目录下去寻找这个streaming文件,由于这个文件的路径比较长,因此我们可以将它写入到环境变量:

$ vi ~/.bashrc # 打开环境变量配置文件
# 在里面写入streaming路径
export STREAM=$HADOOP_HOME/share/hadoop/tools/lib/hadoop-streaming-*.jar

由于通过streaming接口运行的脚本太长了,因此直接建立一个shell名称为run.sh来运行:

hadoop jar $STREAM \
-files ./mapper.py,./reducer.py \
-mapper ./mapper.py \
-reducer ./reducer.py \
-input /user/$(whoami)/input/*.txt \
-output /user/$(whoami)/output

然后"source run.sh"来执行mapreduce。结果就响当当的出来啦。这里特别要提醒一下:

1、一定要把本地的输入文件转移到hdfs系统上面,否则无法识别你的input内容;

2、一定要有权限,一定要在你的hdfs系统下面建立你的个人文件夹否则就会被denied,是的,就是这两个错误搞得我在服务器上面痛不欲生,四处问人的感觉真心不如自己清醒对待来的好;

3、如果你是第一次在服务器上面玩hadoop,建议在这之前请在自己的虚拟机或者linux系统上面配置好伪分布式然后入门hadoop来的比较不那么头疼,之前我并不知道我在服务器上面运维没有给我运行的权限,后来在自己的虚拟机里面运行一下example实例以及wordcount才找到自己的错误。

好啦,然后不出意外,就会complete啦,你就可以通过如下方式查看计数结果:

让python在hadoop上跑起来

以上就是本文的全部内容,希望对大家学习python软件编程有所帮助。

Python 相关文章推荐
Python写的Socks5协议代理服务器
Aug 06 Python
Python多进程并发(multiprocessing)用法实例详解
Jun 02 Python
python实现读取excel写入mysql的小工具详解
Nov 20 Python
基于DataFrame筛选数据与loc的用法详解
May 18 Python
python matplotlib绘图,修改坐标轴刻度为文字的实例
May 25 Python
Python实现识别图片内容的方法分析
Jul 11 Python
Python实现提取XML内容并保存到Excel中的方法
Sep 01 Python
python 读取竖线分隔符的文本方法
Dec 20 Python
Python3使用TCP编写一个简易的文件下载器功能
May 08 Python
python程序快速缩进多行代码方法总结
Jun 23 Python
OpenCV-Python实现油画效果的实例
Jun 08 Python
python常见的占位符总结及用法
Jul 02 Python
CentOS安装pillow报错的解决方法
Jan 27 #Python
python实现文本去重且不打乱原本顺序
Jan 26 #Python
举例讲解Python设计模式编程中的访问者与观察者模式
Jan 26 #Python
Python函数中*args和**kwargs来传递变长参数的用法
Jan 26 #Python
python中的编码知识整理汇总
Jan 26 #Python
在MAC上搭建python数据分析开发环境
Jan 26 #Python
python黑魔法之编码转换
Jan 25 #Python
You might like
在windows iis5下安装php4.0+mysql之我见
2006/10/09 PHP
PHP分页函数代码(简单实用型)
2010/12/02 PHP
PHP json_decode函数详细解析
2014/02/17 PHP
thinkphp连贯操作实例分析
2014/11/22 PHP
PHP面试常用算法(推荐)
2016/07/22 PHP
Zend Framework基于Command命令行建立ZF项目的方法
2017/02/18 PHP
prototype Element学习笔记(Element篇三)
2008/10/26 Javascript
腾讯的ip接口 方便获取当前用户的ip地理位置
2010/11/25 Javascript
上传的js验证(图片/文件的扩展名)
2013/04/25 Javascript
解析使用js判断只能输入数字、字母等验证的方法(总结)
2013/05/14 Javascript
Jquery Uploadify多文件上传带进度条且传递自己的参数
2013/08/28 Javascript
原生的html元素选择器类似jquery选择器
2014/10/15 Javascript
jquery+php实现搜索框自动提示
2014/11/28 Javascript
HTML Table 空白单元格补全的简单实现
2016/10/13 Javascript
JS中检测数据类型的几种方式及优缺点小结
2016/12/12 Javascript
JavaScript运动框架 链式运动到完美运动(五)
2017/05/18 Javascript
javascript基础进阶_深入剖析执行环境及作用域链
2017/09/05 Javascript
JS库之ParticlesJS使用简介
2017/09/12 Javascript
Vue shopCart 组件开发详解
2018/01/26 Javascript
vue-cli3.0配置及使用注意事项详解
2018/09/05 Javascript
基于Vue3.0开发轻量级手机端弹框组件V3Popup的场景分析
2020/12/30 Vue.js
Python获取某一天是星期几的方法示例
2017/01/17 Python
Python和Go语言的区别总结
2019/02/20 Python
Python对接六大主流数据库(只需三步)
2019/07/31 Python
利用Python将多张图片合成视频的实现
2020/11/23 Python
金融专业个人求职信范文
2013/11/28 职场文书
汽车维修专业个人求职信范文
2014/01/01 职场文书
秋季运动会加油稿200字
2014/01/11 职场文书
生日礼品店创业计划书范文
2014/03/21 职场文书
开业主持词
2014/03/21 职场文书
安全演讲稿开场白
2014/08/25 职场文书
2015年预备党员自我评价
2015/03/04 职场文书
致三级跳运动员加油稿
2015/07/21 职场文书
《确定位置》教学反思
2016/02/18 职场文书
MySQL 使用自定义变量进行查询优化
2021/05/14 MySQL
解决mysql的int型主键自增问题
2021/07/15 MySQL