欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  网络运营

Hadoop streaming详细介绍

程序员文章站 2022-12-07 10:41:51
hadoop streaming hadoop为mapreduce提供了不同的api,可以方便我们使用不同的编程语言来使用mapreduce框架,而不是只局限于java。...

hadoop streaming

hadoop为mapreduce提供了不同的api,可以方便我们使用不同的编程语言来使用mapreduce框架,而不是只局限于java。这里要介绍的就是hadoop streaming api。hadoop streaming 使用unix的standard streams作为我们mapreduce程序和mapreduce框架之间的接口。所以你可以用任何语言来编写mapreduce程序,只要该语言可以往standard input/output上进行读写。

streamming是天然适用于文字处理的(text processing),当然,也仅适用纯文本的处理,对于需要对象和序列化的场景,hadoop streaming无能为力。它力图使我们能够快捷的通过各种脚本语言,快速的处理大量的文本文件。以下是steaming的一些特点:

  1. map函数的输入是通过stand input一行一行的接收数据的。(不像java api,通过inputformat类做预处理,使得map函数的输入是有key和value的)
  2. map函数的output则必须限定为key-value pair,key和value之间用\t分开。(mapreduce框架在处理intermediate的map输出时,必须做sort和partition,即shuffle)
  3. reduce函数的input是map函数的output也是key-value pair,key和value之间用\t分开。

常用的streaming编程语言:

  1. bash shell
  2. ruby
  3. python

ruby

下面是一个ruby编写的mapreduce程序的示例:

map

max_temperature_map.rb:

ruby 
#!/usr/bin/env ruby 
stdin.each_line do |line| 
val = line 
year, temp, q = val[15,4], val[87,5], val[92,1] 
puts "#{year}\t#{temp}" if (temp != "+9999" && q =~ /[01459]/) 
end 
  • 从标准输入读入一行data。
  • 处理数据之后,生成一个键值对,用\t分隔,输出到标准输出

reduce

max_temperature_reduce.rb:

ruby 
#!/usr/bin/env ruby 
last_key, max_val = nil, -1000000 
stdin.each_line do |line| 
key, val = line.split("\t") 
if last_key && last_key != key 
puts "#{last_key}\t#{max_val}" 
last_key, max_val = key, val.to_i 
else 
last_key, max_val = key, [max_val, val.to_i].max 
end 
end 
puts "#{last_key}\t#{max_val}" if last_key 
  1. 从标准输入读入一行数据
  2. 数据是用\t分隔的键值对
  3. 数据是被mapreduce根据key排序之后顺序一行一行读入
  4. reduce函数对数据进行处理,并输出,输出仍是用\t分隔的键值对

运行

% hadoop jar $hadoop_install/contrib/streaming/hadoop-*-streaming.jar \
-input input/ncdc/sample.txt \
-output output \
-mapper ch02/src/main/ruby/max_temperature_map.rb \
-reducer ch02/src/main/ruby/max_temperature_reduce.rb
  1. hadoop jar $hadoop_install/contrib/streaming/hadoop-*-streaming.jar指明了使用hadoop streaming
  2. hadoop-*-streaming.jar会将input里的文件,一行一行的输出到标准输出。
  3. 用-mapper指定map函数。类似于通过管道将数据传给rb文件: data|ch02/src/main/ruby/max_temperature_map.rb
  4. -reducer指定reduce函数。

python

map

#!/usr/bin/env python
import re
import sys
for line in sys.stdin:
val = line.strip()
(year, temp, q) = (val[15:19], val[87:92], val[92:93])
if (temp != "+9999" and re.match("[01459]", q)):
print "%s\t%s" % (year, temp)

reduce

#!/usr/bin/env python
import sys
(last_key, max_val) = (none, -sys.maxint)
for line in sys.stdin:
(key, val) = line.strip().split("\t")
if last_key and last_key != key:
print "%s\t%s" % (last_key, max_val)
(last_key, max_val) = (key, int(val))
else:
(last_key, max_val) = (key, max(max_val, int(val)))
if last_key:
print "%s\t%s" % (last_key, max_val)

运行

% hadoop jar $hadoop_install/contrib/streaming/hadoop-*-streaming.jar \
-input input/ncdc/sample.txt \
-output output \
-mapper ch02/src/main/ruby/max_temperature_map.py\
-reducer ch02/src/main/ruby/max_temperature_reduce.py

bash shell

map

#!/usr/bin/env bash
# nlineinputformat gives a single line: key is offset, value is s3 uri
read offset s3file
# retrieve file from s3 to local disk
echo "reporter:status:retrieving $s3file" >&2
$hadoop_install/bin/hadoop fs -get $s3file .
# un-bzip and un-tar the local file
target=`basename $s3file .tar.bz2`
mkdir -p $target
echo "reporter:status:un-tarring $s3file to $target" >&2
tar jxf `basename $s3file` -c $target
# un-gzip each station file and concat into one file
echo "reporter:status:un-gzipping $target" >&2
for file in $target/*/*
do
gunzip -c $file >> $target.all
echo "reporter:status:processed $file" >&2
done
# put gzipped version into hdfs
echo "reporter:status:gzipping $target and putting in hdfs" >&2
gzip -c $target.all | $hadoop_install/bin/hadoop fs -put - gz/$target.gz

运行

% hadoop jar $hadoop_install/contrib/streaming/hadoop-*-streaming.jar \
-d mapred.reduce.tasks=0 \
-d mapred.map.tasks.speculative.execution=false \
-d mapred.task.timeout=12000000 \
-input ncdc_files.txt \
-inputformat org.apache.hadoop.mapred.lib.nlineinputformat \
-output output \
-mapper load_ncdc_map.sh \
-file load_ncdc_map.sh
  1. 这里的-d mapred.reduce.tasks=0将reduce task观掉,因此也不需要设置-reducer
  2. 只使用mapper,可以通过mapreduce帮助我们并行的完成一些平时只能串行的shell脚本
  3. 注意这里的-file,在集群模式下,需要并行运行时,需要-file把文件传输到其他节点

combiner

在streaming模式下,仍然可以运行combiner,两种方法:

  1. 通过java编写一个combiner的函数,并使用-combiner option
  2. 以命令行的管道模式完成combiner的任务

这里具体解释第二种方法:

% hadoop jar $hadoop_install/contrib/streaming/hadoop-*-streaming.jar \
-input input/ncdc/all \
-output output \
-mapper "ch02/src/main/ruby/max_temperature_map.rb | sort |
ch02/src/main/ruby/max_temperature_reduce.rb" \
-reducer ch02/src/main/ruby/max_temperature_reduce.rb \
-file ch02/src/main/ruby/max_temperature_map.rb \
-file ch02/src/main/ruby/max_temperature_reduce.rb

注意看-mapper这一行,通关管道的方式,把mapper的临时输出文件(intermediate file,map完成后的临时文件)作为输入,送到sort进行排序,然后送到reduce脚本,来完成类似于combiner的工作。这时候的输出才真正的作为shuffle的输入,被分组并在网络上发送到reduce

感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!