欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页

[一起学Hive]之十二-Hive SQL的优化 博客分类: hive 一起学hivehive优化 

程序员文章站 2024-03-15 13:48:59
...

关键字: Hive 优化、HQL 优化、Hive数据倾斜

 

 

十一、Hive SQL的优化

 

本章只是从HQL层面介绍一下,日常开发HQL中需要注意的一些优化点,不涉及Hadoop层面的参数、配置等优化。

 

其中大部分是我之前发过的博客文章,这里整理了下。

 

11.1 使用分区剪裁、列剪裁

 

在SELECT中,只拿需要的列,如果有,尽量使用分区过滤,少用SELECT *。

 

在分区剪裁中,当使用外关联时,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤,比如:

 

SELECT a.id

 

FROM lxw1234_a a

 

left outer join t_lxw1234_partitioned b

 

ON (a.id = b.url);

 

WHERE b.day = ‘2015-05-10′

 

   正确的写法是写在ON后面

 

        SELECT a.id

 

FROM lxw1234_a a

 

left outer join t_lxw1234_partitioned b

 

        ON (a.id = b.url AND b.day = ‘2015-05-10′);

   或者直接写成子查询

SELECT a.id

 

FROM lxw1234_a a

 

left outer join (SELECT url FROM t_lxw1234_partitioned WHERE day = ‘2015-05-10′) b

 

ON (a.id = b.url)

 

 

11.2 少用COUNT DISTINCT

 

数据量小的时候无所谓,数据量大的情况下,由于COUNT DISTINCT操作需要用一个Reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY再COUNT的方式替换:

 

       SELECT day,

 

COUNT(DISTINCT id) AS uv

 

FROM lxw1234

 

GROUP BY day

 

可以转换成:

 

SELECT day,

 

COUNT(id) AS uv

 

FROM (SELECT day,id FROM lxw1234 GROUP BY day,id) a

 

GROUP BY day;

 

 

 

虽然会多用一个Job来完成,但在数据量大的情况下,这个绝对是值得的。

 

 

11.3 是否存在多对多的关联

 

只要遇到表关联,就必须得调研一下,是否存在多对多的关联,起码得保证有一个表或者结果集的关联键不重复。

 

如果某一个关联键的记录数非常多,那么分配到该Reduce Task中的数据量将非常大,导致整个Job很难完成,甚至根本跑不出来。

 

还有就是避免笛卡尔积,同理,如果某一个键的数据量非常大,也是很难完成Job的。

 

 

 

11.4 合理使用MapJoin

 

关于MapJoin的原理和机制,请参考 [一起学Hive]之十

 

MapJoin中小表的大小可以用参数来调节。

 

 

 

11.5 合理使用Union All

 

对同一张表的union all 要比multi insert快的多。

 

具体请见:

 

http://superlxw1234.iteye.com/blog/1536440

 

11.6 并行执行Job

 

用过oracle rac的应该都知道parallel的用途。

 

并行执行的确可以大的加快任务的执行速率,但不会减少其占用的资源。

 

在hive中也有并行执行的选项。

 

具体请见:

 

http://superlxw1234.iteye.com/blog/1703713

 

11.7 使用本地MR

 

如果在hive中运行的sql本身数据量很小,那么使用本地mr的效率要比提交到Hadoop集群中运行快很多。

 

具体请见:

 

http://superlxw1234.iteye.com/blog/1703546

 

 

 

11.8 合理使用动态分区

 

参见 [一起学Hive]之六-Hive的动态分区

 

http://lxw1234.com/archives/2015/06/286.htm

 

 

 

11.9 避免数据倾斜

 

数据倾斜是Hive开发中对性能影响的一大杀手。

 

  • 症状:

 

任务迚度长时间维持在99%(或100%);

 

查看任务监控页面,发现只有少量(1个或几个)reduce子任务未完成。

 

本地读写数据量很大。

 

  • 导致数据倾斜的操作:

 

GROUP BY, COUNT DISTINCT, join

 

  • 原因:

 

key分布不均匀

 

业务数据本身特点

 

这里列出一些常用的数据倾斜解决办法:

 

  1. 使用COUNT DISTINCT和GROUP BY造成的数据倾斜:

 

存在大量空值或NULL,或者某一个值的记录特别多,可以先把该值过滤掉,在最后单独处理:

 

SELECT CAST(COUNT(DISTINCT imei)+1 AS bigint)

 

FROM lxw1234 where pt = ‘2012-05-28′

 

AND imei <> ‘lxw1234′ ;

 

比如某一天的IMEI值为’lxw1234’的特别多,当我要统计总的IMEI数,可以先统计不为’lxw1234’的,之后再加1.

 

多重COUNT DISTINCT

 

通常使用UNION ALL + ROW_NUMBER() + SUM + GROUP BY来变通实现。

 

  1. 使用JOIN引起的数据倾斜

 

关联键存在大量空值或者某一特殊值,如”NULL”

 

空值单独处理,不参与关联;

 

空值或特殊值加随机数作为关联键;

 

不同数据类型的字段关联

 

转换为同一数据类型之后再做关联

 

11.10 控制Map数和Reduce数

 

参见http://lxw1234.com/archives/2015/04/15.htm

 

 

 

11.11 中间结果压缩

 

参见 http://superlxw1234.iteye.com/blog/1741103

 

 

 

11.12 其他

 

  • 在MapReduce的WEB界面上,关注Hive Job执行的情况;
  • 了解HQL -> MapReduce的过程;
  • HQL优化其实也是MapReduce的优化,作为分布式计算模型,其最核心的地方就是要确保每个节点上分布的数据均匀,才能最大程度发挥它的威力,否则,某一个不均匀的节点就会拖后腿。

 

 

 

Hive相关文章(持续更新)

 

一起学Hive系列

 

—-Hive概述,Hive是什么

 

—-Hive函数大全-完整版

 

—-Hive中的数据库(Database)和表(Table)

 

—-Hive的安装配置

 

—-Hive的视图和分区

 

—-Hive的动态分区

 

—-向Hive表中加载数据

 

—-使用Hive命令行

 

—-Hive的查询语句SELECT

 

—-Hive中Join的原理和机制

 

—-Hive中Join的类型和用法

 

Hive分析函数系列

 

Hive索引

 

hive优化之——控制hive任务中的map数和reduce数