当前位置: 首页 > 面试题库 >

Hive中的窗口功能

太叔志尚
2023-03-14
问题内容

我正在探索Hive中的窗口功能,并且能够理解所有UDF的功能。虽然,我无法理解我们与其他功能配合使用的分区和顺序。以下是与我计划构建的查询非常相似的结构。

SELECT a, RANK() OVER(partition by b order by c) as d from xyz;

只是试图了解两个关键字都涉及的后台过程。

感谢帮助:)


问题答案:

RANK() 分析函数为数据集中每个分区的每一行分配一个等级。

PARTITION BY 子句确定行的分布方式(如果是配置单元,则在缩减程序之间)。

ORDER BY 确定行在分区中的排序方式。

第一阶段由分配数据集中的所有行均分配到分区中。在map-reduce中,每个映射器都根据来对行进行分组,partition by并为每个分区生成文件。Mapper根据进行分区部分的初始排序order by

第二阶段 ,所有行都在每个分区内排序。在map-
reduce中,每个化简器获取由映射器生成的分区文件(分区的一部分),并根据来对整个分区中的行进行排序(部分结果的排序)order by

第三 ,等级函数将等级分配给分区中的每一行。正在为每个分区初始化Rank函数。

对于分区中的第一行,排名从1开始。对于每个下一行Rank=previous row rank+1。给定相同等级的具有相等值(按顺序指定)的行,如果两行共享相同的等级,则下一个行等级不是连续的。

可以在不同的reducer上并行处理不同的分区。小型分区可以在相同的reducer上进行处理。秩函数在跨越分区边界时会重新初始化,并以每个分区的rank =
1开头。

示例(行已在分区内进行了分区和排序):

SELECT a, RANK() OVER(partition by b order by c) as d from xyz;

a, b, c, d(rank)
----------------
1  1  1  1 --starts with 1
2  1  1  1 --the same c value, the same rank=1
3  1  2  3 --rank 2 is skipped because second row shares the same rank as first

4  2  3  1 --New partition starts with 1
5  2  4  2
6  2  5  3

如果需要连续的等级,请使用dense_rank功能。dense_rank将为上述数据集中的第三行产生rank = 2。

row_number 函数将为分区中从1开始的每一行分配位置编号。具有相等值的行将收到不同的连续编号。

SELECT a, ROW_NUMBER() OVER(partition by b order by c) as d from xyz;

a, b, c, d(row_number)
----------------
1  1  1  1 --starts with 1
2  1  1  2 --the same c value, row number=2
3  1  2  3 --row position=3

4  2  3  1 --New partition starts with 1
5  2  4  2
6  2  5  3

重要说明:
对于具有相同值row_number或其他此类分析函数的行,可能具有不确定的行为,并且每次运行都会产生不同的数字。在上述数据集的第一行可以接收数字2和第二行可接收数字1,反之亦然,因为它们的顺序不被确定,除非你会增加一个列
一个order by条款。在这种情况下,每次运行时所有行将始终具有相同的row_number,它们的顺序值是不同的。



 类似资料:
  • 问题内容: 运行以下代码: 结果是: 上面的代码中没有定义任何窗口框架,它看起来默认的窗口框架是 不确定我对默认窗口框架的理解是否正确 问题答案: 从Spark Gotchas 默认帧规格取决于给定窗口定义的其他方面: 如果指定了ORDER BY子句,并且该函数接受了帧规范,则该帧规范是由RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW定义的, 否

  • 我试图在火花数据帧中使用rowNumber。我的查询在Spark shell中按预期工作。但是当我在eclipse中写出它们并编译一个jar时,我面临着一个错误 我的问题 在Spark shell中运行查询时,我没有使用HiveContext。不确定为什么它返回一个错误,当我运行相同的jar文件。如果有帮助的话,我也在Spark 1.6.0上运行脚本。有人面临类似的问题吗?

  • 我每年都通过联接进行

  • 问题内容: 我有一个事件表,其中包含以下字段: 给定一个持续时间和一个数字,我需要在持续时间的任何相对时间窗口中,对所有大于事件的事件进行计数。这基本上需要针对每个事件的滑动窗口。例如,我希望所有event_type在10分钟的持续时间内具有超过5个事件的活动。 我不确定如何在没有窗口功能的情况下解决此问题。 (我使用的是mysql 5.6。我在说的是一百万行以下的数据集。) 问题答案: MySQ

  • 问题内容: 我正在尝试将某些Windows函数(和)用于数据框,但我不知道如何使用它们。 有人可以帮我吗?在Python API文档 中,没有关于它的示例。 具体来说,我正在尝试获取数据框中数字字段的分位数。 我正在使用Spark 1.4.0。 问题答案: 要使用窗口功能,您必须先创建一个窗口。定义与普通SQL几乎相同,这意味着您可以定义顺序,分区或同时定义两者。首先让我们创建一些虚拟数据: 确保

  • 问题内容: 我有一个名为的表,最近刚刚在其中添加了一个名为type的新列。 行值将不是整个表唯一的,而是它们各自的字段唯一的。无论如何,我什至不在乎它们的独特性。 所有这些的目的是允许用户设置他们上传的照片的排序顺序(最多10张,并且可以拖动和重新排序等)。当用户“删除”照片时,我不会删除记录,我只是在该行上设置了一个字段。 Aaaanyway,我要介绍一个添加的迁移(它们以前无法订购照片,它们只