Hive中Join的原理和机制
笼统的说,Hive中的Join可分为Common Join(Reduce阶段完成join)和Map Join(Map阶段完成join)。本文简单介绍一下两种join的原理和机制。
Hive Common Join
如果不指定MapJoin或者不符合MapJoin的条件,那么Hive解析器会将Join操作转换成Common Join,即:在Reduce阶段完成join.
整个过程包含Map、Shuffle、Reduce阶段。
-
Map阶段
1,读取源表的数据,Map输出时候以Join on条件中的列为key,如果Join有多个关联键,则以这些关联键的组合作为key;
2,Map输出的value为join之后所关心的(select或者where中需要用到的)列;同时在value中还会包含表的Tag信息,用于标明此value对应哪个表;
3,按照key进行排序 -
Shuffle阶段
根据key的值进行hash,并将key/value按照hash值推送至不同的reducer中,这样确保两个表中相同的key位于同一个reducer中 -
Reduce阶段
根据key的值完成join操作,期间通过Tag来识别不同表中的数据。
以下面的HQL为例,图解其过程:
SELECT
a.id,a.dept,b.age
FROM a join b
ON (a.id = b.id);
看了这个图,应该知道如何使用MapReduce进行join操作了吧。
Hive Map Join
MapJoin通常用于一个很小的表和一个大表进行join的场景,具体小表有多小,由参数 hive.mapjoin.smalltable.filesize来决定,该参数表示小表的总大小,默认值为25000000字节,即25M。
Hive0.7之前,需要使用hint提示 /+ mapjoin(table) /才会执行MapJoin,否则执行Common Join,但在0.7版本之后,默认自动会转换Map Join,由参数hive.auto.convert.join
来控制,默认为true.
仍然以9.1中的HQL来说吧,假设a表为一张大表,b为小表,并且hive.auto.convert.join=true,那么Hive在执行时候会自动转化为MapJoin。
- 如图中的流程,首先是Task A,它是一个Local Task(在客户端本地执行的Task),负责扫描小表b的数据,将其转换成一个HashTable的数据结构,并写入本地的文件中,之后将该文件加载到DistributeCache中,该HashTable的数据结构可以抽象为:
key value
1 26
2 34
图中红框圈出了执行Local Task的信息。
* 接下来是Task B,该任务是一个没有Reduce的MR,启动MapTasks扫描大表a,在Map阶段,根据a的每一条记录去和DistributeCache中b表对应的HashTable关联,并直接输出结果。
* 由于MapJoin没有Reduce,所以由Map直接输出结果文件,有多少个Map Task,就有多少个结果文件
上一篇: Hive 03 数据存储
推荐阅读
-
深入理解java异常处理机制的原理和开发应用
-
php中Session的生成机制、回收机制和存储机制探究
-
Java线程编程中isAlive()和join()的使用详解
-
Python中实现单例模式的n种方式和原理
-
Java中的ReentrantLock和synchronized两种锁定机制的对比
-
java中++和+=的执行原理有什么不同? 博客分类: java编程
-
java中++和+=的执行原理有什么不同? 博客分类: java编程
-
Django中的中间件写法和原理
-
[一起学Hive]之十一-Hive中Join的类型和用法 博客分类: hive hiveHive Join
-
[一起学Hive]之十-Hive中Join的原理和机制 博客分类: hive HiveHive MapJoinHive Common Join