ruby和pig处理流式文件实例
大数据操作中涉及到数据清洗步奏还是用脚本处理比较方便,下边介绍一下pig加载hdfs文件后调用ruby脚本处理数据,再返回数据流至pig中处理的一个简单案例。
注意:ruby的流式处理用到wukong这个gem包,相关下载:
https://github.com/mrflip/wukong
pig中加载分布式文件调用ruby流式处理:
log = load '$infile' using pigstorage('\t');
define tracking_parser `/usr/ruby parse_click.rb --map` ship('parse_click.rb', 'click_tracking.rb');
strmo = stream log through tra_parser;
store strmo into '$outfile' using pigstorage('\t');
require 'wukong'
require 'json'
require './click_tra.rb'
module parseclick
class mapper < wukong::streamer::recordstreamer
def before_stream
@bad_count = 0
end
def after_stream
raise runtimeerror, "exceeded bad records : #{@bad_count}" if @bad_count > 10
end
def process *records
yield clicktra.new(json.parse(records[2])).to_a
rescue => e
@bad_count += 1
warn "bad record #{e}: #{records[2]}"
end
end
end
wukong.run parseclick::mapper, nil
require 'date'
require './models.rb'
class clicktra
output :ip
output :c_date
#output your other atrributes
def c_date
click_date.strftime("%y%m%d").to_i
end
def ip
browser_ip.to_i
end
end
其中
strmo = stream log through tra_parser;调用定义的外部程序tra_parser处理log对象。
wukong.run parseclick::mapper, nil执行完后,将ruby执行结果回调pig接收。
store strmo into '$outfile' using pigstorage('\t');做结果存储持久化。