为了账号安全,请及时绑定邮箱和手机立即绑定

hive优化分享

标签:
大数据

粘贴一下我在部门中的一次hive优化的分享。

 

简述

hive构建在hadoop基础上,利用分布式存储,通过mr引擎实现对大数据的计算。MR会频繁地读写磁盘而且MR任务的启动成本很高。对于hive优化显得尤为重要。而优化的核心就是更好地利用hadoop的分布式特性和hive的有点。本篇从IO、参数设置、案例实战来说明如何优化我们的hive。受限于个人能力,如有不足之处,还望指出,一起沟通讨论。

 

1、IO

  A、通过列裁剪,只读取需要的列[对select * 的做法应进行严格要求,甚至禁止]

  B、 join操作前,应提前处理表,只读取需要的列,并对数据进行梳理。

      原:select A.char1,B.char2

           from A join B

                 on A.id=B.id

           where A.disabled=0 and B.disabled=0

      优:select A.char1,B.char2

            from

                 (

                  select id,char1

                    from a

                   where a.disabled=0

                 ) A

                 join

                 (

                  select id,char2

                    from b

                   where b.disabled=0

                 ) B

                 on A.id=B.id

  C、选择合适的存储类型

    建议使用orc存储格式,作为默认设置[支持切片,有压缩,提高查询速度]。创建表时,指定stored as orcfile

  D、走分区[可选]

    减少读取更多的分区文件,极大地有帮助!处理分区时,不可对分区字段进行操作,否则将会导致全表扫描。

2、join

    A、left semi join取代in

      根据测试,对于在大数据量中查询某些取值时,有效提升查询效率。[测试:从erp_fct_order表中,查找若干数据。left semi join 使用了100'+,in耗时300'+]

    B、map join

      当小表与大表进行关联时,通过map join,使左表进入内存,与右表进行关联。这个阶段不涉及reduce。

      通过设置set hive.auto.convert.join=true;[默认]

              set hive.mapjoin.smalltable.filesize=2500000;[25M,通过配置该属性来确定使用该优化的表的大小,如果表的大小小于此值就会被加载进内存中]

3、设置执行参数

  reducer数量

      我们执行语句时,总会看到这个: 

      Number of reduce tasks determined at compile time: 1

      In order to change the average load for a reducer (in bytes):

        set hive.exec.reducers.bytes.per.reducer=<number>

      In order to limit the maximum number of reducers:

        set hive.exec.reducers.max=<number>

      In order to set a constant number of reducers:

        set mapreduce.job.reduces=<number>

      Starting Job = job_1515122600431_869586, Tracking URL = http://hadoop04:8088/proxy/application_1515122600431_869586/

 

      上面其实就是,hadoop确定reduce的数量的方式。

      N=min(hive.exec.reducers.max,总数据量大小/hive.exec.reducers.bytes.per.reducer),默认情况下,hive.exec.reducers.max=999,hive.exec.reducers.bytes.per.reducer=1G;

      我们也可以强制指定reduce数量,mapreduce.job.reduces=N。

      需要注意的是,有的reduce为0,有的只为1。

      为0,即为该任务只有map,没有reduce。

      为1,即为全局,如order by、count、笛卡尔积。

  mapper的数量

      map端处理文件时,将对文件进行拆分成若干个task数。而如何拆分,这本身和文件的存储类型相关。hive系统默认的类型为org.apache.hadoop.hive.ql.io.CombineHiveInputFormat[set hive.input.format;],当我们不指定存储类型时,hive将根据文件本身设置对应的存储类型。如:org.apache.hadoop.mapred.TextInputFormat。

      继承了FileInputFormat的切分算法:splitSize = max{split.size,min{goalSize,blockSize}}

      若格式为:HiveInputFormat

      split.size:mapred.min.split.size,默认为1。切片最小大小,没有什么能比这个更小的了。

      goalSize:目标大小,为用户设置的map task数与实际大小决定。goalSize=总大小/设置的mapred.map.tasks的大小[默认为2]

      blockSize:块大小[set dfs.block.size],当前我们系统的块为:128M

      所以,当我们没有设置最小的切片大小时,切片的大小,取决于文件大小、设置的mapred.map.tasks数、块大小.

      例如:一个文件如果是300M,则切片大小为:splitSize=max{1,min{300/2,128}}=128M,则3个map对应的文件大小为:128,128,46

      若格式为:TextInputFormat:

      split.size:mapred.max.split.size,[当前系统为256M],则splitSize为max{256,min{300/2,128}}=256,则只有一个map.

    小结

  mapper的数量合适,单个mapper处理的数据量合适;拆分大小尽量与block数据块相同,避免一个拆分块大小有多个 hdfs 块,且位于不同数据节点,从而降低网络 IO。如果想减少mapper的数据量,一般只要将mapred.max.split.size设置的更大就可以了。

  合并小文件

  hive基于NameNode进行调度管理和任务分发,NameNode本身是有瓶颈的,有固定的大小。在hadoop任务中,NameNode加载必要的信息,其中包括各个文件的元数据(位置、大小、块信息等)。一般情况下,当文件数达到1000W时,所占用的NameNode内存达到3G,将带来性能下降。Hadoop本身对大文件具有很高的处理能力,但在mr任务过程中,map任务和reduce任务都会带来小文件的问题。当小文件作为输入,由map来进行处理时,启用map带来的时间比处理更耗时。此外,reduce数量多的话,产生的小文件也会增多。

  输入时合并

  set mapred.max.split.size=256000000;-- 每个Map最大输入大小,决定合并后的文件数      

  set mapred.min.split.size.per.node=100000000; -- 一个节点上split的至少的大小 ,决定了多个data node上的文件是否需要合并 [当前设置为:1,默认设置。设置该参数,一定要设置下方的rack参数,否则报错。]

  set mapred.min.split.size.per.rack=100000000; -- 一个交换机下split的至少的大小,决定了多个交换机上的文件是否需要合并 [当前设置为:1,默认设置]

  set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; -- 执行Map前进行小文件合并[经过测试,设置上面的参数就能够让小文件进行合并了。]

  输出时合并

  set hive.merge.mapfiles=true; -- 在map-only job后合并文件,默认true

  set hive.merge.mapredfiles=true; -- 在map-reduce job后合并文件,默认false

  set hive.merge.size.per.task=256000000; -- 合并后每个文件的大小,默认256000000

  set hive.merge.smallfiles.avgsize=16000000; -- 平均文件大小,当结果文件小于该值时,将进行合并

数据倾斜

    原因:当我们进行join操作时,会在map端根据key的hash值,shuffle到某一个reduce上去,在reduce端做join连接操作,内存中缓存join左边的表,遍历右边的表,一次做join操作。所以在做join操作时候,将数据量多的表放在join的右边。当数据量比较大,并且key分布不均匀,大量的key都shuffle到一个reduce上了,就出现了数据的倾斜。

    场景

    key为空:当join的key存在空值时,这些值会被hash到同一个reduce中,导致数据倾斜。遇到这样的情况,建议区分空和非空

    count(distinct):数据聚合类的操作sum、count,因为已经在map端做了聚合操作了,到reduce端的数据相对少一些[主要设置参数为:1.set hive.map.aggr=true;默认值,是否在map端进行聚合;2.set hive.groupby.mapaggr.checkinterval = 100000;默认值,在 Map 端进行聚合操作的条目数目],不会出现这个问题。当distinct时,会对group by后的字段和distinct的字段进行hash,如果存在大量重复值,则会导致数据倾斜。

    遇到倾斜时set hive.groupby.skewindata = true;[负载均衡,默认为false。查询计划会有两个 MR Job。第一个 MR Job 中,Map 的输出结果集合会随机分布到 Reduce 中,每个 Reduce 做部分聚合操作,并输出结果,这样处理的结果是相同的 Group By Key 有可能被分发到不同的 Reduce 中,从而达到负载均衡的目的;第二个 MR Job 再根据预处理的数据结果按照 Group By Key 分布到 Reduce 中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),最后完成最终的聚合操作]

常用参数设置及说明

--类型:输入时合并小文件

  set hive.input.format=org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; ----可在map端进行合并,减少小文件

  set mapred.max.split.size=256000000;  ----设置一个合理的数值,最大的切片数据。影响map的个数 

  set mapred.min.split.size.per.node=134217728;  ----一个节点上的最小切片大小。设置为block大小

  set mapred.min.split.size.per.rack=256000000;  ----一个交换机上的最小切片大小

--类型:资源占用量

  set mapreduce.map.memory.mb=5120;

  set mapreduce.reduce.memory.mb=5120;

--类型:设置最大值

  set mapreduce.job.reduces=80;  ----用来对reduer数量进行控制,但设置的过大,不设置效果更好

  set hive.exec.reducers.max=80; ----最大的reduce数

--类型:mapjoin

  set hive.auto.convert.join=true;

  set hive.mapjoin.smalltable.filesize=2500000;

--类型:输出时合并

  set hive.merge.mapfiles=true; -- 在map-only job后合并文件,默认true

  set hive.merge.mapredfiles=true; -- 在map-reduce job后合并文件,默认false

  set hive.merge.size.per.task=256000000; -- 合并后每个文件的大小,默认256000000

  set hive.merge.smallfiles.avgsize=16000000; -- 平均文件大小,当结果文件小于该值时,将进行合并

 --类型:并发及并发数

  set hive.exec.parallel=true;

  set hive.exec.parallel.thread.number=16;

补充

     在写sql的过程中,有时候会用到排序。但是在hive中用order by排序,将带来一个问题。只有一个reduce。往往带来性能的较差。Hive为查询提供了其他排序方式。

  Order by:全局,一个reduce【不建议】

  Distribute by :map的输出排序,排序后,将对应的key通过hash放入到reduce中

  Sort by:局部排序,在每个reduce中实现排序。当reduce数只有一个时,sort by和order by结果没有什么差异【建议】

       Cluster by:分桶中用到,用来指定分桶的字段。cluster by  key = distribute by key sort by key desc  ,是一个简写。cluster by只能降序排序。

原文出处

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消