欢迎投稿

今日深度:

Hive优化,

Hive优化,


Hive性能调校
提高Hive总体性能的若干技巧
本报告主要就如何提高Hive执行的总体性能进行了调研,下面以分条的形式列举出来。
1.设置
hive.map.aggr=true,提高HiveQL聚合的执行性能。
这个设置可以将顶层的聚合操作放在Map阶段执行,从而减轻清洗阶段数据传输和Reduce阶段的执行时间,提升总体性能。
缺点:该设置会消耗更多的内存。
注:顶层的聚合操作(top-level aggregation operation),是指在group by语句之前执行的聚合操作。例如,hive> SET hive.map.aggr=true;
hive> SELECT count(*), avg(salary) FROM employees group by ** having max()>1
2.显示数据时,使用“local mode”可避免启动MapReduce,显著提升性能.当执行“select * from table”时,Hive会简单地仅仅从表中读取数据并将格式化的数据输出到控制端,这个过程不会生成MapReduce
程序。而对于其它类型的查询,比如指定字段或者包含表关联的查询等,Hive会使用MapReduce执行这些查询。若想避免这些查询的MapReduce执行可以设置hive.exec.mode.local.auto=true;
这样的话,Hive会尝试在本地执行相关查询并将数据显示出来。
注:这种情况下,Hive查询的数据可能不全,只是一个结点上的数据,可供测试查询使用。
3.(陷阱)浮点数的比较
hive> SELECT name, salary, deductions['Federal Taxes'] > FROM employees WHERE deductions['Federal Taxes'] >0.2; 其中deductions['Federal Taxes']为Double类型数据。查出的数据实际上是>=0.2的记录。

原因:IEEE
的浮点数表示,它影响几乎所有的程序!简单来说就是,对于0.2这个数值的在计算机中的Float表示为0.2000001,Double值为0.200000000001,都比0.2略大。
解决方法:使用cast函数。WHERE deductions['Federal Taxes'] > cast(0.2 AS FLOAT);
4.Hive中进行表的关联查询时,尽可能将较大的表放在Join之后。
Hive在处理表的关联查询时,会默认对最后一张表执行streaming操作,也就是将其它的表缓存起来,将最后一张表与其它的表进行关联,这个操作只会读一遍这张最大的表,反之,该表会读取多次,特别是包含多张表时。另外,由于
Join之前的表会默认缓存,如果大表放在前面的位置,也会造成内存的消耗。但可以通过指令改变这种默认行为:
SELECT /*+ STREAMTABLE(s) */ s.ymd, s.symbol, s.price_close, d.dividend FROM stocks s JOIN dividends d ON s.ymd = d.ymd AND s.symbol = d.symbol WHERE s.symbol = 'AAPL'; STREAMTABLE
会告诉Hive的查询优化器将制定的表作为最大的表来处理。
5.在where语句中添加分区过滤条件可加速查询的执行。
6.避免笛卡尔积!
SELECTS * FROM stocks JOIN dividends; //没有指定ON条件,Hive会对两张表执行笛卡尔积连结!
SELECT * FROM stocks JOIN dividends WHERE stock.symbol = dividends.symbol and stock.symbol='AAPL';// 在Hive中,连结操作会在where条件之前执行,所以这条语句与上一条语句执行时间相当!
SELECT * FROM stocks JOIN dividends ON stock.symbol = dividends.symbol;//这样才能真正执行Inner Join而不是笛卡尔积!
7.Map-side Join:Map端连结
SELECT /*+ MAPJOIN(d) */ s.ymd, s.symbol, s.price_close, d.dividend FROM stocks s JOIN dividends d ON s.ymd = d.ymd AND s.symbol = d.symbol WHERE s.symbol = 'AAPL';
在Hive v0.7之前,MAPJOIN()会将指定的表,一般是较小的表,加载到内存中,这样整个连结过程会在Map段完成。这样可以避免产生冗余的中间数据(连结产生的中间表)
同时也可以免除相应的Reduce操作,进而提高整体性能。在Hive v0.7之后,需要设置hive.auto.convert.join=true,开启MapJoin功能。注:另外也可以进行
bucketMapJoin的优化,具体理解,待调研。
8.Order by vs. Sort by vs. Distribute By vs. Cluster By 这四个语句都和排序相关,但底层的执行细节不同。
Order By:会将所有的数据在一个reducer上执行,得到的结果是整体有序的。但是由于
不能并发执行,所以效率比较低。
Sort By:排序操作在多个reducer上执行,得到的结果是局部有序(一个reduce内)的,但是整体数据不一定是严格有序的。另外,这个语句还可能造成数据的重叠和丢失。由
于MapReduce是采用Hash的方式来组织数据的,所以当使用Sort By时,一个reducer的输出会覆盖另一个reducer的数据。
Distribute By:为Sort By而生!它可以修正Sort By带来的负面作用,避免数据的覆盖和丢失。Distribute By将保证具有相同的指定关键字的记录进入到同一个reducer进行处理,这样就可以避免reducer在输出数据时将不同
reducer的记录放到同一个位置,从而造成数据的覆盖!

SELECT s.ymd, s.symbol, s.price_close FROM stocks s DISTRIBUTE BY s.symbol SORT BY s.symbol ASC, s.ymd ASC;

Cluster By = Distribute By + Sort By!
但是除了Order By之外产生的所有排序结果默认情况下(除非修改mapred.reduce.tasks的值)都不能做到结果的整体有序。
9.抽样查询
对于大量的数据,有时会需要查看数据的状态,比如是否有记录,其中的某个字段是否有值,但是若对整张表查询可能会比较耗时,另外得出的结果也不具有随机性。
Hive支持抽样查寻
TableSample 例如,有一张表numbers,其中包含一个列number
hive> SELECT * from numbers TABLESAMPLE(BUCKET 3 OUT OF 10 ON rand()) s;
2
4
rand()返回一个随机值,这里对应结果的条数。
hive> SELECT * from numbers TABLESAMPLE(BUCKET 3 OUT OF 10 ON number) s;
2 如果不用
rand()而是特定的列名,那么在多次运行中,返回的结果是确定的。
在Bucket语句中,分母(eg. 10)代表数据会被散列到的桶的数目,分子代表被选中的桶的编号。除了按桶抽样,也可以按块进行抽样:
SELECT * FROM numbersflat TABLESAMPLE(0.1 PERCENT) s; 注:按块抽样的最小抽样单元是一个HDFS的块,默认情况下,如果表的大小小于128MB,
那么所有的列将会被抽出,无论设置的百分比是多少!

10.UNION ALL
同时返回多张表的查询结果
SELECT log.ymd, log.level, log.message FROM ( SELECT l1.ymd, l1.level,

l1.message, 'Log1' AS source FROM log1 l1 UNION ALL SELECT l2.ymd, l2.level,

l2.message, 'Log2' AS source FROM log1 l2 ) log SORT BY log.ymd ASC;
注:要求两个表查询结果的字段的个数和类型必须一致!

11.(技巧)EXPLAIN/EXPLAIN EXTENDED 展开查询计划树,可以作为优化查询的工具。

12.Limit 优化
hive.limit.optimize.enable=true 可以避免查询中对整张表的query,它受一下两个条件的约束:
<property>
<name>hive.limit.row.max.size</name>
<value>100000</value>
<description>When trying a smaller subset of data for simple LIMIT, how much size we need to guarantee each row to have at least.
</description>
</property>

<property>
<name>hive.limit.optimize.limit.file</name>
<value>10</value>
<description>When trying a smaller subset of data for simple LIMIT, maximum number of files we can sample.</description>
</property>

13.本地模式
local mode 对于输入数据比较多,但是每个文件又特别的小的情况下,这样可以避免调用task造成的开销:
set oldjobtracker=${hiveconf:mapred.job.tracker};
set mapred.job.tracker=local;
set mapred.tmp.dir=/home/edward/tmp;
SELECT * from people WHERE firstname=bob;


set mapred.job.tracker=${oldjobtracker};

14.并行执行
hive.exec.parallel=true
Hive将一个query语句转换成多阶段任务来执行,每次执行一个阶段的任务。当被解析成的多个阶段之间不存在依赖的时候,可以让多个阶段的任务并行执行,这可以大大加快任务执行的速度,但同时也许需要更多的集群资源。

15.Mapper与Reducer数量的优化
折衷:数量太大,会导致任务的启动、调度和运行过程的开销太大;数量太小,无法很好地利用集群的并发特性。Hive会在接收到查询任务后,根据输入数据的大小评估所需要的reducer数量,但这个
过程需要时间开销。默认的hive.exec.reducers.bytes.per.reducer是1GB,也可以改变这个值。
如何自己评估输入数据的大小?
[edward@etl02 ~]$ hadoop dfs -count /user/media6/fracture/ins/* | tail -4 1 8 2614608737 hdfs://.../user/media6/fracture/ins/hit_date=20120118 1 7 2742992546 hdfs://.../user/media6/fracture/ins/hit_date=20120119
1 17 2656878252 hdfs://.../user/media6/fracture/ins/hit_date=20120120
1 2 362657644 hdfs://.../user/media6/fracture/ins/hit_date=20120121
注:当在执行Hadoop任务时,特别是hadoop-streaming脚本,如果只有mapper而没有reducer的话,可以将reducer数量设为0,这可以作为解决数据倾斜的一种方法!

16.JVM 复用
在一个JVM实例上运行多个mapreduce任务,减少创建jvm实例的开销
<property>
<name>mapred.job.reuse.jvm.num.tasks</name>
<value>10</value>
<description>How many tasks to run per jvm. If set to -1, there is no limit. JVM Reuse | 139
</description>
</property>

缺点:会造成潜在的集群资源的浪费。

17.探测性执行(Speculative Execution)
所谓探测性执行,是指Hadoop会启动同一个任务的多个副本在集群上执行,但它会丢弃该阶段的产生的多个副本的数据。这个阶段会消耗更多的集群资源,目的是为了探测执行较慢的
TaskTrackers,并将它们列入黑名单,进而提升整体工作流程的性能。
<property>
<name>mapred.map.tasks.speculative.execution</name>
<value>true</value>
<description>If true, then multiple instances of some map tasks may be executed in parallel.</description>
</property>

<property>
<name>mapred.reduce.tasks.speculative.execution</name>
<value>true</value>
<description>If true, then multiple instances of some reduce tasks may be executed in parallel.</description>
</property>

18.虚拟列
Hive提供了三个虚拟列:INPUT__FILE__NAME, BLOCK__OFFSET__INSIDE__FILE和ROW__OFFSET__INSIDE__BLOCK。但ROW__OFFSET__INSIDE__BLOCK默认是不可用的,需要设置
hive.exec.rowoffset为true才可以。可以用来排查有问题的输入数据。
hive> SELECT INPUT__FILE__NAME, BLOCK__OFFSET__INSIDE__FILE, line
> FROM hive_text WHERE line LIKE '%hive%' LIMIT 2;
har://file/user/hive/warehouse/hive_text/folder=docs/
data.har/user/hive/warehouse/hive_text/folder=docs/README.txt
2243
har://file/user/hive/warehouse/hive_text/folder=docs/
data.har/user/hive/warehouse/hive_text/folder=docs/README.txt
3646
hive> set hive.exec.rowoffset=true;
hive> SELECT INPUT__FILE__NAME, BLOCK__OFFSET__INSIDE__FILE,
> ROW__OFFSET__INSIDE__BLOCK
> FROM hive_text WHERE line LIKE '%hive%' limit 2;
file:/user/hive/warehouse/hive_text/folder=docs/README.txt 2243 0
file:/user/hive/warehouse/hive_text/folder=docs/README.txt 3646 0

www.htsjk.Com true http://www.htsjk.com/hive/41377.html NewsArticle Hive优化, Hive性能调校 提高Hive总体性能的若干技巧 本报告主要就如何提高Hive执行的总体性能进行了调研,下面以分条的形式列举出来。 1.设置 hive.map.aggr=true,提高HiveQL聚合的执行性...
相关文章
    暂无相关文章
评论暂时关闭