当前位置: 代码迷 >> SQL >> 十一、Hive SQL的优化
  详细解决方案

十一、Hive SQL的优化

热度:251   发布时间:2016-05-05 10:16:37.0
[一起学Hive]之十二-Hive SQL的优化

关键字: Hive 优化、HQL 优化、Hive数据倾斜

?

?

十一、Hive SQL的优化

?

本章只是从HQL层面介绍一下,日常开发HQL中需要注意的一些优化点,不涉及Hadoop层面的参数、配置等优化。

?

其中大部分是我之前发过的博客文章,这里整理了下。

?

11.1 使用分区剪裁、列剪裁

?

在SELECT中,只拿需要的列,如果有,尽量使用分区过滤,少用SELECT *。

?

在分区剪裁中,当使用外关联时,如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤,比如:

?

SELECT a.id

?

FROM lxw1234_a a

?

left outer join t_lxw1234_partitioned b

?

ON (a.id = b.url);

?

WHERE b.day = ‘2015-05-10′

?

?? 正确的写法是写在ON后面

?

??????? SELECT a.id

?

FROM lxw1234_a a

?

left outer join t_lxw1234_partitioned b

?

??????? ON (a.id = b.url AND b.day = ‘2015-05-10′);

?? 或者直接写成子查询

SELECT a.id

?

FROM lxw1234_a a

?

left outer join (SELECT url FROM t_lxw1234_partitioned WHERE day = ‘2015-05-10′) b

?

ON (a.id = b.url)

?

?

11.2 少用COUNT DISTINCT

?

数据量小的时候无所谓,数据量大的情况下,由于COUNT DISTINCT操作需要用一个Reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY再COUNT的方式替换:

?

?????? SELECT day,

?

COUNT(DISTINCT id) AS uv

?

FROM lxw1234

?

GROUP BY day

?

可以转换成:

?

SELECT day,

?

COUNT(id) AS uv

?

FROM (SELECT day,id FROM lxw1234 GROUP BY day,id) a

?

GROUP BY day;

?

?

?

虽然会多用一个Job来完成,但在数据量大的情况下,这个绝对是值得的。

?

?

11.3 是否存在多对多的关联

?

只要遇到表关联,就必须得调研一下,是否存在多对多的关联,起码得保证有一个表或者结果集的关联键不重复。

?

如果某一个关联键的记录数非常多,那么分配到该Reduce Task中的数据量将非常大,导致整个Job很难完成,甚至根本跑不出来。

?

还有就是避免笛卡尔积,同理,如果某一个键的数据量非常大,也是很难完成Job的。

?

?

?

11.4 合理使用MapJoin

?

关于MapJoin的原理和机制,请参考 [一起学Hive]之十 。

?

MapJoin中小表的大小可以用参数来调节。

?

?

?

11.5 合理使用Union All

?

对同一张表的union all 要比multi insert快的多。

?

具体请见:

?

http://superlxw1234.iteye.com/blog/1536440

?

11.6 并行执行Job

?

用过oracle rac的应该都知道parallel的用途。

?

并行执行的确可以大的加快任务的执行速率,但不会减少其占用的资源。

?

在hive中也有并行执行的选项。

?

具体请见:

?

http://superlxw1234.iteye.com/blog/1703713

?

11.7 使用本地MR

?

如果在hive中运行的sql本身数据量很小,那么使用本地mr的效率要比提交到Hadoop集群中运行快很多。

?

具体请见:

?

http://superlxw1234.iteye.com/blog/1703546

?

?

?

11.8 合理使用动态分区

?

参见 [一起学Hive]之六-Hive的动态分区

?

http://lxw1234.com/archives/2015/06/286.htm

?

?

?

11.9 避免数据倾斜

?

数据倾斜是Hive开发中对性能影响的一大杀手。

?

  • 症状:

?

任务迚度长时间维持在99%(或100%);

?

查看任务监控页面,发现只有少量(1个或几个)reduce子任务未完成。

?

本地读写数据量很大。

?

  • 导致数据倾斜的操作:

?

GROUP BY, COUNT DISTINCT, join

?

  • 原因:

?

key分布不均匀

?

业务数据本身特点

?

这里列出一些常用的数据倾斜解决办法:

?

  1. 使用COUNT DISTINCT和GROUP BY造成的数据倾斜:

?

存在大量空值或NULL,或者某一个值的记录特别多,可以先把该值过滤掉,在最后单独处理:

?

SELECT CAST(COUNT(DISTINCT imei)+1 AS bigint)

?

FROM lxw1234 where pt = ‘2012-05-28′

?

AND imei <> ‘lxw1234′ ;

?

比如某一天的IMEI值为’lxw1234’的特别多,当我要统计总的IMEI数,可以先统计不为’lxw1234’的,之后再加1.

?

多重COUNT DISTINCT

?

通常使用UNION ALL + ROW_NUMBER() + SUM + GROUP BY来变通实现。

?

  1. 使用JOIN引起的数据倾斜

?

关联键存在大量空值或者某一特殊值,如”NULL”

?

空值单独处理,不参与关联;

?

空值或特殊值加随机数作为关联键;

?

不同数据类型的字段关联

?

转换为同一数据类型之后再做关联

?

11.10 控制Map数和Reduce数

?

参见http://lxw1234.com/archives/2015/04/15.htm

?

?

?

11.11 中间结果压缩

?

参见 http://superlxw1234.iteye.com/blog/1741103

?

?

?

11.12 其他

?

  • 在MapReduce的WEB界面上,关注Hive Job执行的情况;
  • 了解HQL -> MapReduce的过程;
  • HQL优化其实也是MapReduce的优化,作为分布式计算模型,其最核心的地方就是要确保每个节点上分布的数据均匀,才能最大程度发挥它的威力,否则,某一个不均匀的节点就会拖后腿。

?

?

?

Hive相关文章(持续更新):

?

一起学Hive系列

?

—-Hive概述,Hive是什么

?

—-Hive函数大全-完整版

?

—-Hive中的数据库(Database)和表(Table)

?

—-Hive的安装配置

?

—-Hive的视图和分区

?

—-Hive的动态分区

?

—-向Hive表中加载数据

?

—-使用Hive命令行

?

—-Hive的查询语句SELECT

?

—-Hive中Join的原理和机制

?

—-Hive中Join的类型和用法

?

Hive分析函数系列

?

Hive索引

?

hive优化之——控制hive任务中的map数和reduce数