Hive中4个By的区别以及如何调优你知道么

Hive中4个By的区别以及如何调优你知道么,第1张

1、Sort By:分区内有序

2、Order By:全局排序,只有一个Reducer

3、Distrbute By:类似MR中的Partition,进行分区,结合sort by使用

4、Cluster By:当Distrbute By和Sort By字段相同时,可以使用Cluster By方式。Cluster By除了具有Distrbute By的功能还有Sort By的功能。但是排序只能是升序排序,不能指定排序规则为ASC或者DESC。

窗口函数:

RANK()排序相同时会重复,总数不会变

DENSE_RANK()排序相同时会重复,总数会减少

ROW_NUMBER()根据顺序计算

调优方案:

Fetch抓取

Hive针对某些情况的查询可以不必使用MapReduce计算。例如select from score;在这种情况下,Hive可以简单地读取source对应的存储目录下的文件,然后输出查询结果到控制台。通过设置hivefetchtaskconversion参数,可以控制查询语句是否走了MapReduce。

假如hivefetchtaskconversion设置成none,表示所有执行的查询语句都会走mr程序

假如hivefetchtaskconversion设置成more,表示所有执行的查询语句都会走mr程序

本地模式

大多数的Hadoop Job是需要Hadoop提供完整的可扩展性来处理大数据集的。不过,有时候Hive的输入数据流是非常小的。在这种情况下,为查询触发执行任务时消耗可能会比实际job的执行时间要多的多。对于大多数这种情况,Hive可以通过本地模式在单台机器上处理所有的任务。对于小数据集,执行时间可以明显被缩短。

用户可以设置hiveexecmodelocalauto的值为true,来让Hive在适当的时候自动启动这个优化。

MapJoin

如果不指定MapJoin或者不符合MapJoin的条件,那么Hive解析器就会在Reduce阶段完成join,容易发生数据倾斜。可以用MapJoinba把小表全部加载到内存在map端进行join,避免reducer处理。

set hiveautoconvertjoin = true

大表小表的阈值设置(默认25M以下认为是小表)

set hivemapjoinsmalltablefilesize = 25123456

Group By

默认情况下,Map阶段同一key数据分发给一个reduce,当一个key数据过大时就倾斜了。并不是所有的聚合 *** 作都需要在Reduce端完成,很多聚合 *** 作都可以先在Map端进行部分聚合,最后在Reduce端得出结果。

是否在Map端进行聚合,默认为True

set hivemapaggr = true;

在Map端进行聚合 *** 作的条目数据

set hivegroupbymapaggrcheckinterval = 100000;

有数据倾斜的时候进行负载均衡(默认是false)

set hivegroupbyskewindata = true

当选项设定为true,生成的查询计划会有两个MR Job,相当于相同的Group By Key会被分到不同的Reduce中

Count(distinct)

数据量大的时候,由于Count Distinct *** 作需要一个Reduce Task完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般Count Distinct使用先Group By再Count的方式替换

笛卡尔积

尽量避免笛卡尔积,意思就是避免join的时候不加on条件或者无效的on条件,Hive只能使用1个reducer来完成笛卡尔积。

1fetch抓取

一些HQL语句,可以不翻译为MR程序,而是使用FetchTask来运行,拉取数据!

启用了fetch抓取,可以节省某些HQL语句的查询效率!

默认fetch抓取的设置是开启的,为more

hivefetchtaskconversion=more

2表的Join

21表Join的顺序

在hive中,不管是 大表 join 小表还是 小表 Join 大表,hive都可以自动优化!

22 大表之间的Join

在MR中ReduceJoin的原理:

Map阶段

①ReduceTask可以启动任意数量,必须保证关联字段相同的分到同一个区

关联字段相同的数据,才能分到同一个ReduceTask

②数据源有两种不同类型的文件,都使用同一个map处理逻辑!

因此在map()需要根据切片的来源,进行判断,从而进行不同的封装逻辑的选择!

③Mapper中封装数据的bean,应该可以覆盖不同类型文件中的所有字段

④需要在bean中打标记,标记bean封装的是哪个文件中的数据

只需要将ordertxt中的数据进行替换后输出!

Reduce阶段

⑤在reduce()中,根据数据的标记进行分类

分为ordertxt中的数据和pdtxt中的数据

⑥在cleanup()中,只讲ordertxt中的数据,替换后写出

左外连接,如果左表A表中有大量的c字段的值为null的数据,如果不对null的数据进行过滤,此时会产生数据倾斜!

Java在15过后提供了ProcessBuilder根据运行时环境启动一个Process调用执行运行时环境下的命令或应用程序(15以前使用Runtime),关于ProcessBuilder请参考Java相关文档。调用代码如下:

String sql="show tables; select from test_tb limit 10";

List<String> command = new ArrayList<String>();

commandadd("hive");

commandadd("-e");

commandadd(sql);

List<String> results = new ArrayList<String>();

ProcessBuilder hiveProcessBuilder = new ProcessBuilder(command);

hiveProcess = hiveProcessBuilderstart();

BufferedReader br = new BufferedReader(new InputStreamReader(

hiveProcessgetInputStream()));

String data = null;

while ((data = brreadLine()) != null) {

resultsadd(data);

}

其中command可以是其它Hive命令,不一定是HiveQL。

版本: 233

Hive on Spark为Hive提供了 Apache Spark 作为执行引擎。

set hiveexecutionengine=spark;

Hive 11+以上版本提供Hive on Spark 。它在“ spark ”和“spark2”分支中仍处于发展阶段,并且定期合并到Hive的“主”分支中。

参见 HIVE-7292 及其子任务和相关问题。

Hive on Spark仅用特定版本的Spark进行测试,因此给定版本的Hive只能保证与Spark的特定版本兼容。Spark的其他版本可能与给定版本的Hive一起使用,但不能保证。以下是Hive版本及其相应兼容Spark版本的列表。

按照说明安装Spark:

YARN模式: >

11 什么是Hive

Hive:由Facebook开源用于解决海量结构化日志的数据统计。

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张表,并提供类SQL查询功能。本质是:将HQL转化成MapReduce程序

Hive处理的数据存储在HDFS

Hive分析数据底层的实现是MapReduce

执行程序运行在Yarn上

12 Hive的优缺点

121 优点

*** 作接口采用类SQL语法,提供快速开发的能力(简单、容易上手)。

避免了去写MapReduce,减少开发人员的学习成本。

Hive的执行延迟比较高,因此Hive常用于数据分析,对实时性要求不高的场合。

Hive优势在于处理大数据,对于处理小数据没有优势,因为Hive的执行延迟比较高。

Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。

122 缺点

1.Hive的HQL表达能力有限

(1)迭代式算法无法表达

(2)数据挖掘方面不擅长

2.Hive的效率比较低

(1)Hive自动生成的MapReduce作业,通常情况下不够智能化

(2)Hive调优比较困难,粒度较粗

13 Hive架构原理

1.用户接口:Client

CLI(hive shell)、JDBC/ODBC(java访问hive)、WEBUI(浏览器访问hive)

2.元数据:Metastore

元数据包括:表名、表所属的数据库(默认是default)、表的拥有者、列/分区字段、表的类型(是否是外部表)、表的数据所在目录等;

默认存储在自带的derby数据库中,推荐使用MySQL替代derby存储Metastore

3.Hadoop

使用HDFS进行存储,使用MapReduce进行计算。

4.驱动器:Driver

(1)解析器(SQL Parser):将SQL字符串转换成抽象语法树AST,这一步一般都用第三方工具库完成,比如antlr;对AST进行语法分析,比如表是否存在、字段是否存在、SQL语义是否有误。

(2)编译器(Physical Plan):将AST编译生成逻辑执行计划。

(3)优化器(Query Optimizer):对逻辑执行计划进行优化。

(4)执行器(Execution):把逻辑执行计划转换成可以运行的物理计划。对于Hive来说,就是MR/Spark。

Hive通过给用户提供的一系列交互接口,接收到用户的指令(SQL),使用自己的Driver,结合元数据(MetaStore),将这些指令翻译成MapReduce,提交到Hadoop中执行,最后,将执行返回的结果输出到用户交互接口。

14 Hive和数据库比较

由于 Hive 采用了类似SQL 的查询语言 HQL(Hive Query Language),因此很容易将 Hive 理解为数据库。其实从结构上来看,Hive 和数据库除了拥有类似的查询语言,再无类似之处。本文将从多个方面来阐述 Hive 和数据库的差异。数据库可以用在 Online 的应用中,但是Hive 是为数据仓库而设计的,清楚这一点,有助于从应用角度理解 Hive 的特性。

141 查询语言

由于SQL被广泛的应用在数据仓库中,因此,专门针对Hive的特性设计了类SQL的查询语言HQL。熟悉SQL开发的开发者可以很方便的使用Hive进行开发。

142 数据存储位置

Hive 是建立在 Hadoop 之上的,所有 Hive 的数据都是存储在 HDFS 中的。而数据库则可以将数据保存在块设备或者本地文件系统中。

143 数据更新

由于Hive是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。因此,Hive中不建议对数据的改写,所有的数据都是在加载的时候确定好的。而数据库中的数据通常是需要经常进行修改的,因此可以使用 INSERT INTO … VALUES 添加数据,使用 UPDATE … SET修改数据。

144 索引

Hive在加载数据的过程中不会对数据进行任何处理,甚至不会对数据进行扫描,因此也没有对数据中的某些Key建立索引。Hive要访问数据中满足条件的特定值时,需要暴力扫描整个数据,因此访问延迟较高。由于 MapReduce 的引入, Hive 可以并行访问数据,因此即使没有索引,对于大数据量的访问,Hive 仍然可以体现出优势。数据库中,通常会针对一个或者几个列建立索引,因此对于少量的特定条件的数据的访问,数据库可以有很高的效率,较低的延迟。由于数据的访问延迟较高,决定了 Hive 不适合在线数据查询。

145 执行

Hive中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的。而数据库通常有自己的执行引擎。

146 执行延迟

Hive 在查询数据的时候,由于没有索引,需要扫描整个表,因此延迟较高。另外一个导致 Hive 执行延迟高的因素是 MapReduce框架。由于MapReduce 本身具有较高的延迟,因此在利用MapReduce 执行Hive查询时,也会有较高的延迟。相对的,数据库的执行延迟较低。当然,这个低是有条件的,即数据规模较小,当数据规模大到超过数据库的处理能力的时候,Hive的并行计算显然能体现出优势。

147 可扩展性

由于Hive是建立在Hadoop之上的,因此Hive的可扩展性是和Hadoop的可扩展性是一致的(世界上最大的Hadoop 集群在 Yahoo!,2009年的规模在4000 台节点左右)。而数据库由于 ACID 语义的严格限制,扩展行非常有限。目前最先进的并行数据库 Oracle 在理论上的扩展能力也只有100台左右。

148 数据规模

由于Hive建立在集群上并可以利用MapReduce进行并行计算,因此可以支持很大规模的数据;对应的,数据库可以支持的数据规模较小。

以上就是关于Hive中4个By的区别以及如何调优你知道么全部的内容,包括:Hive中4个By的区别以及如何调优你知道么、如何进行hive优化、如何在Java中执行Hive命令或HiveQL等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/9769641.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-01
下一篇 2023-05-01

发表评论

登录后才能评论

评论列表(0条)

保存