Hadoop_MapReduce_03
1. mapreduce入门
1.1 mapreduce的思想
mapreduce的思想核心是"分而治之" , 适用于大量的复杂的任务处理场景 (大规模数据处理场景) .
map负责"分" , 即把复杂的任务分解为若干个"简单的任务"来进行处理. 可以进行拆分的前提是这些小任务并行计算, 彼此间几乎没有依赖关系.
reduce负责"合" , 即对map阶段的结果进行全局汇总.
这两个阶段合起来正是mr思想的体现.
1.2 mapreduce设计构思
mapreduce是一个分部式运算程序的编程框架, 核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序. 并发运行在hadoop集群上.
既然是做计算的框架, 那么表现形式就是有个输入 (input) , mr操作这个输入, 通过本身定义好的计算模型, 得到一个输出 (output) .
mr就是一种简化并行计算的编程模型, 降低了开发并行应用的入门门槛.
hadoop mapreduce构思体现在三个方面:
-
- 如何对付大数据处理: 分而治之
对相互间不具有计算依赖关系的大数据, 实现并行最自然的方法就是采取分而治之的策略. 并行计算的第一个重要问题是如何划分计算任务或者计算数据以便对划分的子任务或数据块同时进行计算. 不可分拆的计算任务或相互间有依赖关系的数据无法进行并行计算.
-
- 构建抽象模型: map和reduce
mr借鉴了函数式语言中的思想, 用map和reduce两个函数提供了高层的并行编程抽象模型.
map: 对一组数据元素进行某种重复式的处理.
reduce: 对map的中间结果进行某种进一步的结果整理.
mapreduce中定义了如下的map和reduce两个抽象的编程接口, 由用户去编程实现:
map: (k1, v1) -> [(k2, v2)]
reduce: (k2, [v2]) -> [(k3, v3)]
map和reduce为我们提供了一个清晰的操作接口抽象描述. 通过以上两个编程接口, 可以看出mr处理的数据类型是<key, value>键值对.
-
- 统一架构, 隐藏系统层细节
如何提供统一的计算框架, 如果没有统一封装底层细节, 那么我们则需要考虑诸如数据存储, 划分, 分发, 结果手机, 错误恢复等诸多细节. 为此, mr设计并提供了统一的计算框架, 隐藏了绝大多数系统层面的处理细节.
mapreduce最大的亮点在于通过抽象模型和计算框架把需要做什么 (what need to do) 与具体怎么做 (how to do) 分开了, 为我们提供一个抽象和高层的编程接口和框架. 我们仅需要关心其应用层的具体计算问题, 仅需编写少量的处理应用本身计算问题的程序代码. 如何具体完成这个并行计算任务所相关的诸多系统层细节被隐藏起来, 交给计算框架去处理: 从分布代码的执行, 到大到数千小到单个节点集群的自动调度使用.
1.3 mapreduce框架结构
一个完整的mr程序在分布式运行时有三类实例进程:
1) mrappmaster: 负责整个程序的过程调度及状态协调.
2) maptask: 负责map阶段的整个数据处理流程.
3) reducetask: 负责reduce阶段的整个数据处理流程.
1.4 map, reduce, split总结
2. mapreduce编程规范及示例
2.1 编程规范
开发步骤一共8步
-
- maptask阶段2步
1) 设置inputformat (通常使用textinputformat) 的类型和数据的路径 -- 获取数据的过程 (可以得到k1, v1) .
2) 自定义mapper -- 将k1, v1转为k2, v2.
-
- shuffle阶段4步
3) 分区的动作, 如果有多个reduce才去考虑分区, 默认只有一个reduce, 分区可以省略.
4) 排序, 默认对k2进行排序 (字典序) -- 管好k2就行.
5) 规约, combiner是一个局部的reduce, map端的合并, 是对mr的优化操作, 不会影响任何结果, 减少网络传输, 默认可以省略.
6) 分组, 相同的k (k2) 对应的v会放到同一个集合中 -- 将map传递的k2, v2变成新的k2, v2.
-
- reduce阶段2步
7) 自定义reducer得到k2, v2转为k3, v3.
8) 设置outputformat和数据的路径 -- 生成结果文件.
2.2 wordcount案例
3. mapreduce程序运行模式
3.1 本地运行模式
1) mr程序是被提交给localjobrunner在本地以单进程的形式运行.
2) 而处理的数据及输出结果可以在本地文件系统, 也可以在hdfs上.
3) 怎么样实现本地运行? 写一个程序, 不要带集群的配置文件
本质是程序的conf中是否有mapreduce.framework.name=local以及yarn.resourcemanager.hostname参数
4) 本地模式非常便于进行业务逻辑的debug, 只要打断点即可.
3.2 集群运行模式
1) 将mr程序提交给yarn集群, 分发到很多的节点上并发执行.
2) 处理的数据和输出结果应该位于hdfs文件系统.
3) 提交集群的实现步骤:
将程序打成jar包, 然后在集群的任意一个节点上用hadoop命令启动:
hadoop jar wordcount.jar cn.itcast.mr.wordcount.wordcountrunner args
4. 深入mapreduce
4.1 mapreduce的输入和输出
mr框架运转在<key, value>键值对上, 也就是说, 框架把作业的输入看成是一组<key, value>键值对, 同样也产生一组<key, value>键值对作为作业的输出, 这两组键值对可能是不同的.
一个mr作业的输入和输出类型如下图所示: 可以看出在整个标准流程中, 会有三组<key, value>键值对类型的存在.
4.2 mapper任务执行过程详解
第一阶段: 把输入目录下文件按照一定的标准逐个进行逻辑切片, 形成切片规划. 默认情况下, split size = block size. 每一个切片由一个maptask处理. (getsplits)
第二阶段: 对切片中的数据按照一定的规则解析成<key, value>对. 默认规则是把每一行文本内容解析成键值对. key是每一行的起始位置 (单位是字节) , value是本行的文本内容. (textinputformat)
第三阶段: 调用mapper类中的map方法, 上阶段中每解析出来的一个<k, v>, 调用一次map方法. 每次调用map方法会输出零个或多个键值对.
第四阶段: 按照一定的规则对第三阶段输出的键值对进行分区. 默认是只有一个区. 分区的数量就是reducer任务运行的数量. 默认只有一个reducer任务.
第五阶段: 对每个分区中的键值对进行排序. 首先, 按照键进行排序, 对于键相同的键值对, 按照值进行排序. 比如三个键值对<2, 2>, <1, 3>, <2, 1>, 键和值分别是整数. 那么排序后的结果是<1, 3>, <2, 1>, <2, 2>. 如果有第六阶段, 那么进入第六阶段, 如果没有, 直接输出到文件中.
第六阶段: 对数据进行局部聚合处理, 也就是combiner处理. 键相等的键值对会调用一次reduce方法. 经过这一阶段, 数据量会减少. 本阶段默认是没有的.
4.3 reducer任务执行过程详解
第一阶段: reducer任务会主动从mapper任务复制其输出的键值对. mapper任务可能会有很多, 因此reducer会复制多个mapper的输出.
第二阶段: 把复制到reducer本地数据, 全部进行合并, 即把分散的数据合并成一个大的数据. 再对合并后的数据排序.
第三阶段: 对排序后的键值对调用reduce方法. 键相等的键值对调用一次reduce方法, 每次调用会产生零个或者多个键值对. 最后把这些输出的键值对写入到hdfs文件中.
在整个mr程序的开发过程中, 我们最大的工作是覆盖map函数和覆盖reduce函数.
5. mapreduce的序列化
5.1 概述
序列化是指把结构化对象转化为字节流.
反序列化是序列化的逆过程. 把字节流转化为结构化对象.
当要在进程间传递对象或持久化对象的时候, 就需要序列化对象成字节流, 反之当要将接收到或从磁盘读取的字节流转换成对象, 就要进行反序列化.
java序列化是一个重量级序列化框架, 一个对象被序列化后, 会附带很多额外的信息, 不便于在网络中高效传输. 所以, hadoop自己开发了一套序列化机制 (writable) , 不用像java对象类一样传输多层的父子关系, 需要哪个属性就传输哪个属性值, 大大的减少网络传输的开销.
writable是hadoop的序列化格式, hadoop定义了这样一个writable接口. 一个类要支持可序列化只需要实现这个接口即可.
public interface wriable {
void wirte (dataoutput out) throws ioexception;
void readfields (datainput in) throws ioexception;
}
5.2 writable序列化接口
如需将自定义的bean放在key中传输, 则还需要实现comparable接口, 因为mr框中的shuffle过程一定会对key进行排序, 此时, 自定义的bean实现的接口应该是:
public class flowbean implements writablecomparable<flowbean>
compareto方法用于将当前对象与方法的参数进行比较:
-
- 如果指定的数与参数相等返回 0
- 如果指定的数小于参数返回 -1
- 如果指定的数大于参数返回 1
例如: o1.compareto(o2)
返回正数的话, 当前对象 (调用compareto方法的对象o1) 要排在比较对象 (compareto传参对象o2) 后面, 返回负数的话, 放在前面.
6. mapreduce的排序初步
6.1 需求
在得出统计每一个用户 (手机号) 所耗费的总上行流量, 下行流量, 总流量结果的基础之上再加一个需求: 将统计结果按照总流量倒序排序.
6.2 分析
基本思路: 实现自定义的bean来封装流量信息, 并将bean作为map输出的key来传输.
mr程序在处理数据的过程中会对数据排序 (map输出的kv对传输到reduce之前, 会排序), 排序的依据是map输出的key. 所以, 我们如果要实现自己需要的排序规则, 则可以考虑将排序因素放到key中, 让key实现接口: writablecomparable, 然后重写key的compareto方法.
7. mapreduce的分区partitioner
7.1 需求
将流量汇总统计结果按照手机归属地不同省份输出到不同文件中.
7.2 分析
mapreduce中会将map输出的kv对, 按照相同key分组, 然后分发给不同的reducetask.
默认的分发规则为: 根据key的hashcode%reducetask数来分发.
所以: 如果要按照我们自己的需求进行分组, 则需要改写数据分发 (分组) 组件partitioner, 自定义一个custompartitioner继承抽象类: partitioner, 然后在job对象中, 设置自定义partitioner: job.setpartitionerclass(custompartitioner.class) .
8. mapreduce的combiner
每一个map都可能会产生大量的本地输出, combiner的作用就是对map端的输出先做一次合并, 以减少在map和reduce节点之间的数据传输量, 以提高网络io性能, 是mr的一种优化手段之一.
-
- combiner是mr程序中mapper和reducer之外的一种组件.
- combiner组件的父类就是reducer.
- combiner和reducer的区别在于运行的位置:
combiner是在每一个maptask所在的节点运行.
reducer是接收全局所有mapper的输出结果.
-
- combiner的意义就是对每一个maptask的输出进行局部汇总, 以减小网络传输量.
- 具体实现步骤:
1) 自定义一个combiner继承reducer, 重写reduce方法
2) 在job中设置: job.setcombinerclass(customcombiner.class) .
-
- combiner能够应用的前提是不能影响最终的业务逻辑, 而且, combiner的输出kv应该跟reducer的输入kv类型要对应起来.
上一篇: Spark性能优化指南——初级篇