Hadoop中的Python框架的使用指南
最近,我加入了cloudera,在这之前,我在计算生物学/基因组学上已经工作了差不多10年。我的分析工作主要是利用python语言和它来进行的。但apache hadoop的生态系统大部分都是用java来实现的,也是为java准备的,这让我很恼火。所以,我的头等大事变成了寻找一些python可以用的hadoop框架。
在这篇文章里,我会把我个人对这些框架的一些无关科学的看法写下来,这些框架包括:
- hadoop流
- mrjob
- dumbo
- hadoopy
- pydoop
- 其它
最终,在我的看来,hadoop的数据流(streaming)是最快也是最透明的选项,而且最适合于文本处理。mrjob最适合于在amazon emr上快速工作,但是会有显著的性能损失。dumbo 对于大多数复杂的工作都很方便(对象作为键名(key)),但是仍然比数据流(streaming)要慢。
请继续往下阅读,以了解实现细节,性能以及功能的比较。
一个有趣的问题
为了测试不同的框架,我们不会做“统计词数”的实验,转而去转化谷歌图书n-元数据。 n-元代表一个n个词构成的元组。这个n-元数据集提供了谷歌图书文集中以年份分组的所有1-,2-,3-,4-,5-元记录的统计数目。 在这个n-元数据集中的每行记录都由三个域构成:n-元,年份,观测次数。(您能够在http://books.google.com/ngrams取得数据)。
我们希望去汇总数据以观测统计任何一对相互临近的词组合所出现的次数,并以年份分组。实验结果将使我们能够判断出是否有词组合在某一年中比正常情况出现的更为频繁。如果统计时,有两个词在四个词的距离内出现过,那么我们定义两个词是“临近”的。 或等价地,如果两个词在2-,3-或者5-元记录中出现过,那么我们也定义它们是”临近“的。 一次,实验的最终产物会包含一个2-元记录,年份和统计次数。
有一个微妙的地方必须强调。n-元数据集中每个数据的值都是通过整个谷歌图书语料库来计算的。从原理上来说,给定一个5-元数据集,我可以通过简单地聚合正确的n-元来计算出4-元、3-元和2-元数据集。例如,当5-元数据集包含
(the, cat, in, the, hat) 1999 20 (the, cat, is, on, youtube) 1999 13 (how, are, you, doing, today) 1986 5000
时,我们可以将它聚合为2-元数据集以得出如下记录
(the, cat) 1999 33 // 也就是, 20 + 13
然而,实际应用中,只有在整个语料库中出现了40次以上的n元组才会被统计进来。所以,如果某个5元组达不到40次的阈值,那么google也提供组成这个5元组的2元组数据,这其中有一些或许能够达到阈值。出于这个原因,我们用相邻词的二元数据,隔一个词的三元组,隔两个词的四元组,以此类推。换句话说,与给定二元组相比,三元组多的只是最外层的词。除了对可能的稀疏n元数据更敏感,只用n元组最外层的词还有助于避免重复计算。总的来说,我们将在2元、3元、4元和5元数据集上进行计算。
mapreduce的伪代码来实现这个解决方案类似这样:
def map(record): (ngram, year, count) = unpack(record) // 确保word1为字典第一个字 (word1, word2) = sorted(ngram[first], ngram[last]) key = (word1, word2, year) emit(key, count) def reduce(key, values): emit(key, sum(values))
硬件
这些mapreduce组件在一个大约20gb的随机数据子集上执行。完整的数据集涵盖1500个文件;我们用这个脚本选取一个随机子集。文件名保持完整,这一点相当重要,因为文件名确定了数据块的n-元中n的值。
hadoop集群包含5个使用centos 6.2 x64的虚拟节点,每个都有4个cpu,10gb ram,100gb硬盘容量,并且运行cdh4。集群每次能够执行20个并行运算,每个组件能够执行10个减速器。
集群上运行的软件版本如下:
hadoop:2.0.0-cdh4.1.2 python:2.6.6 mrjob:0.4-dev dumbo:0.21.36 hadoopy:0.6.0 pydoop:0.7(pypi)库中包含最新版本 java:1.6
实现
大多数python框架都封装了hadoop streaming,还有一些封装了hadoop pipes,也有些是基于自己的实现。下面我会分享一些我使用各种python工具来写hadoop jobs的经验,并会附上一份性能和特点的比较。我比较感兴趣的特点是易于上手和运行,我不会去优化某个单独的软件的性能。
在处理每一个数据集的时候,都会有一些损坏的记录。对于每一条记录,我们要检查是否有错并识别错误的种类,包括缺少字段以及错误的n元大小。对于后一种情况,我们必须知道记录所在的文件名以便确定该有的n元大小。
所有代码可以从 github 获得。
hadoop streaming
hadoop streaming 提供了使用其他可执行程序来作为hadoop的mapper或者reduce的方式,包括标准unix工具和python脚本。这个程序必须使用规定的语义从标准输入读取数据,然后将结果输出到标准输出。直接使用streaming 的一个缺点是当reduce的输入是按key分组的时候,仍然是一行行迭代的,必须由用户来辨识key与key之间的界限。
下面是mapper的代码:
#! /usr/bin/env python import os import re import sys # determine value of n in the current block of ngrams by parsing the filename input_file = os.environ['map_input_file'] expected_tokens = int(re.findall(r'([\d]+)gram', os.path.basename(input_file))[0]) for line in sys.stdin: data = line.split('\t') # perform some error checking if len(data) < 3: continue # unpack data ngram = data[0].split() year = data[1] count = data[2] # more error checking if len(ngram) != expected_tokens: continue # build key and emit pair = sorted([ngram[0], ngram[expected_tokens - 1]]) print >>sys.stdout, "%s\t%s\t%s\t%s" % (pair[0], pair[1], year, count)
下面是reducer:
#! /usr/bin/env python import sys total = 0 prev_key = false for line in sys.stdin: data = line.split('\t') curr_key = '\t'.join(data[:3]) count = int(data[3]) # found a boundary; emit current sum if prev_key and curr_key != prev_key: print >>sys.stdout, "%s\t%i" % (prev_key, total) prev_key = curr_key total = count # same key; accumulate sum else: prev_key = curr_key total += count # emit last key if prev_key: print >>sys.stdout, "%s\t%i" % (prev_key, total)
hadoop流(streaming)默认用一个tab字符分割健(key)和值(value)。因为我们也用tab字符分割了各个域(field),所以我们必须通过传递给hadoop下面三个选项来告诉它我们数据的健(key)由前三个域构成。
-jobconf stream.num.map.output.key.fields=3 -jobconf stream.num.reduce.output.key.fields=3
要执行hadoop任务命令
hadoop jar /usr/lib/hadoop-0.20-mapreduce/contrib/streaming/hadoop-streaming-2.0.0-mr1-cdh4.1.2.jar \ -input /ngrams \ -output /output-streaming \ -mapper mapper.py \ -combiner reducer.py \ -reducer reducer.py \ -jobconf stream.num.map.output.key.fields=3 \ -jobconf stream.num.reduce.output.key.fields=3 \ -jobconf mapred.reduce.tasks=10 \ -file mapper.py \ -file reducer.py
注意,mapper.py和reducer.py在命令中出现了两次,第一次是告诉hadoop要执行着两个文件,第二次是告诉hadoop把这两个文件分发给集群的所有节点。
hadoop streaming 的底层机制很简单清晰。与此相反,python以一种不透明的方式执行他们自己的序列化/反序列化,而这要消耗更多的资源。 而且,如果hadoop软件已经存在,streaming就能运行,而不需要再在上面配置其他的软件。更不用说还能传递unix 命令或者java类名称作 mappers/reducers了。
streaming缺点是必须要手工操作。用户必须自己决定如何将对象转化为为成键值对(比如json 对象)。对于二进制数据的支持也不好。而且如上面说过的,必须在reducer手工监控key的边界,这很容易出错。
mrjob
mrjob是一个开放源码的python框架,封装hadoop的数据流,并积极开发yelp的。由于yelp的运作完全在,mrjob的整合与emr是令人难以置信的光滑和容易(使用 )。
mrjob提供了一个python的api与hadoop的数据流,并允许用户使用任何对象作为键和映射器。默认情况下,这些对象被序列化为json对象的内部,但也有支持。有没有其他的二进制i / o格式的开箱即用,但有一个机制来实现自定义序列化。
值得注意的是,mrjob似乎发展的非常快,并有很好的文档。
所有的python框架,看起来像伪代码实现:
#! /usr/bin/env python import os import re from mrjob.job import mrjob from mrjob.protocol import rawprotocol, reprprotocol class ngramneighbors(mrjob): # mrjob allows you to specify input/intermediate/output serialization # default output protocol is json; here we set it to text output_protocol = rawprotocol def mapper_init(self): # determine value of n in the current block of ngrams by parsing filename input_file = os.environ['map_input_file'] self.expected_tokens = int(re.findall(r'([\d]+)gram', os.path.basename(input_file))[0]) def mapper(self, key, line): data = line.split('\t') # error checking if len(data) < 3: return # unpack data ngram = data[0].split() year = data[1] count = int(data[2]) # more error checking if len(ngram) != self.expected_tokens: return # generate key pair = sorted([ngram[0], ngram[self.expected_tokens - 1]]) k = pair + [year] # note that the key is an object (a list in this case) # that mrjob will serialize as json text yield (k, count) def combiner(self, key, counts): # the combiner must be separate from the reducer because the input # and output must both be json yield (key, sum(counts)) def reducer(self, key, counts): # the final output is encoded as text yield "%s\t%s\t%s" % tuple(key), str(sum(counts)) if __name__ == '__main__': # sets up a runner, based on command line options ngramneighbors.run()
mrjob只需要安装在客户机上,其中在作业的时候提交。下面是要运行的命令:
export hadoop_home="/usr/lib/hadoop-0.20-mapreduce" ./ngrams.py -r hadoop --hadoop-bin /usr/bin/hadoop --jobconf mapred.reduce.tasks=10 -o hdfs:///output-mrjob hdfs:///ngrams
编写mapreduce的工作是非常直观和简单的。然而,有一个重大的内部序列化计划所产生的成本。最有可能的二进制计划将需要实现的用户(例如,为了支持typedbytes)。也有一些内置的实用程序日志文件的解析。最后,mrjob允许用户写多步骤的mapreduce的工作流程,在那里从一个mapreduce作业的中间输出被自动用作输入到另一个mapreduce工作。
(注:其余的实现都非常相似,除了包具体的实现,他们都能被找到.。)
dumbo
dumbo 是另外一个使用hadoop流包装的框架。dumbo出现的较早,本应该被许多人使用,但由于缺少文档,造成开发困难。这也是不如mcjob的一点。
dumbo通过typedbytes执行序列化,能允许更简洁的数据传输,也可以更自然的通过指定javainputformat读取sequencefiles或者其他格式的文件,比如,dumbo也可以执行python的egg和java的jar文件。
在我的印象中, 我必须要手动安装dumbo中的每一个节点, 它只有在typedbytes和dumbo以eggs形式创建的时候才能运行。 就像他会因为onmemoryerrors终止一样,他也会因为使用组合器停止。
运行dumbo任务的代码是:
dumbo start ngrams.py \ -hadoop /usr \ -hadooplib /usr/lib/hadoop-0.20-mapreduce/contrib/streaming \ -numreducetasks 10 \ -input hdfs:///ngrams \ -output hdfs:///output-dumbo \ -outputformat text \ -inputformat text
hadoopy
是另外一个兼容dumbo的streaming封装。同样,它也使用typedbytes序列化数据,并直接把 typedbytes 数据写到hdfs。
它有一个很棒的调试机制, 在这种机制下它可以直接把消息写到标准输出而不会干扰streaming过程。它和dumbo很相似,但文档要好得多。文档中还提供了与 apache hbase整合的内容。
用hadoopy的时候有两种发发来启动jobs:
- launch 需要每个节点都已经安装了python/hadoopy ,但是在这之后的负载就小了。
- launch_frozen 不要求节点上已经安装了python,它会在运行的时候安装,但这会带来15秒左右的额外时间消耗(据说通过某些优化和缓存技巧能够缩短这个时间)。
必须在python程序中启动hadoopy job,它没有内置的命令行工具。
我写了一个脚本通过launch_frozen的方式启动hadoopy
python launch_hadoopy.py
用launch_frozen运行之后,我在每个节点上都安装了hadoopy然后用launch方法又运行了一遍,性能明显好得多。
pydoop
与其他框架相比,pydoop 封装了hadoop的管道(pipes),这是hadoop的c++ api。 正因为此,该项目声称他们能够提供更加丰富的hadoop和hdfs接口,以及一样好的性能。我没有验证这个。但是,有一个好处是可以用python实现一个partitioner,recordreader以及recordwriter。所有的输入输出都必须是字符串。
最重要的是,我不能成功的从pip或者源代码构建pydoop。
其他
- 是一个用jython来写hadoop job的框架,但是似乎已经挂了
- disco 成熟的,非hadoop 的 mapreduce.实现,它的核心使用erlang写的,提供了python的api,它由诺基亚开发,不如hadoop应用广泛。
- 是一个纯python的mapreduce实现,它只有一个源文件,并不适于“真正的”计算。
- mortar是另一个python选择,它不久前才发布,用户可以通过一个网页应用提交apache pig 或者 python jobs 处理放置在 amazon s3上的数据。
- 有一些更高层次的hadoop生态体系中的接口,像 apache hive和pig。pig 可以让用户用python来写自定义的功能,是通过jython来运行。 hive 也有一个python封装叫做。
- (added jan. 7 2013) luigi 是一个用于管理多步作业流程的python框架。它与apache oozie 有一点相似,但是它内置封装了hadoop streaming(轻量级的封装)。luigi有一个非常好的功能是能够在job出错的时候抛出python代码的错误堆栈,而且它的命令行界面也非常棒。它的readme文件内容很多,但是却缺少详尽的参考文档。luigi 由spotify 开发并在其内部广泛使用。
本地java
最后,我使用新的hadoop java api接口实施了mr任务,编译完成后,这样来运行它:
hadoop jar /root/ngrams/native/target/ngramscomparison-0.0.1-snapshot.jar ngramsdriver hdfs:///ngrams hdfs:///output-native
关于计数器的特别说明
在我的mr jobs的最初实现里,我用计数器来跟踪监控不良记录。在streaming里,需要把信息写到stderr。事实证明这会带来不容忽视的额外开销:streaming job花的时间是原生java job的3.4倍。这个框架同样有此问题。
将用java实现的mapreduce job作为性能基准。 python框架的值是其相对于java的性能指标的比率。
java明显最快,,streaming要多花一半时间,python框架花的时间更多。从mrjob mapper的profile数据来看,它在序列化/反序列化上花费了大量时间。dumbo和hadoopy在这方面要好一点。如果用了combiner 的话dumbo 还可以更快。
特点比较
大多来自各自软件包中的文档以及代码库。
结论
streaming是最快的python方案,这面面没有任何魔力。但是在用它来实现reduce逻辑的时候,以及有很多复杂对象的时候要特别小心。
所有的python框架看起来都像是伪码,这非常棒。
mrjob更新快,成熟的易用,用它来组织多步mapreduce的工作流很容易,还可以方便地使用复杂对象。它还可以无缝使用emr。但是它也是执行速度最慢的。
还有一些不是很流行的 python 框架,他们的主要优势是内置了对于二进制格式的支持,但如果有必要话,这个完全可以由用户代码来自己实现。
就目前来看:
- hadoop streaming是一般情况下的最佳选择,只要在使用reducer的时候多加小心,它还是很简单易用的。
- 从计算开销方面考虑的话,选择mrjob,因为它与amazon emr结合最好。
- 如果应用比较复杂,包含了复合键,要组合多步流程,dumbo 最合适。它比streaming慢,但是比mrjob快。
如果你在实践中有自己的认识,或是发现本文有错误,请在回复里提出。
上一篇: 插画设计中明暗光影相关知识的分享
下一篇: Flash AS 教程:帧循环