当前位置: 首页 > 面试题库 >

如何使用Postgres中的窗口功能选择特定的更改

邰宇
2023-03-14
问题内容

我有一个带有一些外键的表,我需要获取这些键何时更改的报告。

from | to | timestamp
   1 |  2 | 0000
   1 |  2 | 0001
   1 |  2 | 0002
   1 |  3 | 0003
   1 |  3 | 0004
   1 |  2 | 0005

SELECT from,to,FIRST(timestamp)FROM表GROUP BY from,to;

from | to | timestamp
   1 |  2 | 0000
   1 |  3 | 0003

我可以使用“分组依据”来获取前两个过渡,但是它将第三个与第一个过渡组合在一起,当它返回时我看不到它。

我想进行以下查询:

from | to | timestamp
   1 |  2 | 0000
   1 |  3 | 0003
   1 |  2 | 0005

是否可以?


问题答案:

在PostgreSQL 8.4中,您可以使用窗口函数LAG访问上一行并进行比较,以查看其是否具有“ from”和“ to”相同的值:

SELECT "from", "to", timestamp
FROM
(
    SELECT
        "from",
        "to",
        timestamp,
        LAG(("from", "to")) OVER (ORDER BY timestamp) AS prev
    FROM Table1
) T1
WHERE ("from", "to") IS DISTINCT FROM prev

结果:

from  to    timestamp
1     2     0000        
1     3     0003        
1     2     0005      


 类似资料:
  • 问题内容: 我有一个名为的表,最近刚刚在其中添加了一个名为type的新列。 行值将不是整个表唯一的,而是它们各自的字段唯一的。无论如何,我什至不在乎它们的独特性。 所有这些的目的是允许用户设置他们上传的照片的排序顺序(最多10张,并且可以拖动和重新排序等)。当用户“删除”照片时,我不会删除记录,我只是在该行上设置了一个字段。 Aaaanyway,我要介绍一个添加的迁移(它们以前无法订购照片,它们只

  • 问题内容: 我正在尝试将某些Windows函数(和)用于数据框,但我不知道如何使用它们。 有人可以帮我吗?在Python API文档 中,没有关于它的示例。 具体来说,我正在尝试获取数据框中数字字段的分位数。 我正在使用Spark 1.4.0。 问题答案: 要使用窗口功能,您必须先创建一个窗口。定义与普通SQL几乎相同,这意味着您可以定义顺序,分区或同时定义两者。首先让我们创建一些虚拟数据: 确保

  • 问题内容: 我正在为更大的GUI应用程序编写脚本。主应用程序窗口使用系统的窗口,但我希望脚本的GUI使用Nimbus 。创建GUI后,我想将其设置回原始。我觉得下面的SSCCE应该可以工作,但是我在使用对象时遇到了麻烦。 问题答案: 一般来说,混合LAF并不是一个好主意。这个问题就是一个例子。 Nimbus LAF中有某些内容可能不允许您执行此操作。按原样运行代码。它将LAF设置为,然后重置LAF

  • 问题内容: 有一个包含以下数据的表: 现在,我需要一个查询,该查询给出以下结果: 如何最好地处理“余额”计算。有人告诉我postgres中有window函数,如何使用postgres window函数来完成呢? 谢谢。 问题答案: select t.*, sum(“In”-“Out”) over(order by id) as balance from tbl t order by id 小提琴:

  • 问题内容: 我正在探索Hive中的窗口功能,并且能够理解所有UDF的功能。虽然,我无法理解我们与其他功能配合使用的分区和顺序。以下是与我计划构建的查询非常相似的结构。 只是试图了解两个关键字都涉及的后台过程。 感谢帮助:) 问题答案: 分析函数为数据集中每个分区的每一行分配一个等级。 子句确定行的分布方式(如果是配置单元,则在缩减程序之间)。 确定行在分区中的排序方式。 第一阶段由分配 ,数据集中

  • 我试图在火花数据帧中使用rowNumber。我的查询在Spark shell中按预期工作。但是当我在eclipse中写出它们并编译一个jar时,我面临着一个错误 我的问题 在Spark shell中运行查询时,我没有使用HiveContext。不确定为什么它返回一个错误,当我运行相同的jar文件。如果有帮助的话,我也在Spark 1.6.0上运行脚本。有人面临类似的问题吗?