当前位置: 首页 > 面试题库 >

Python-删除具有重复索引的行(Pandas DataFrame和TimeSeries)

国高杰
2023-03-14
问题内容

我正在从网络上读取一些自动气象数据。观测每5分钟发生一次,并被汇总到每个气象站的月度文件中。解析完文件后,DataFrame如下所示:

                      Sta  Precip1hr  Precip5min  Temp  DewPnt  WindSpd  WindDir  AtmPress
Date                                                                                      
2019-01-01 00:00:00  KPDX          0           0     4       3        0        0     30.31
2019-01-01 00:05:00  KPDX          0           0     4       3        0        0     30.30
2019-01-01 00:10:00  KPDX          0           0     4       3        4       80     30.30
2019-01-01 00:15:00  KPDX          0           0     3       2        5       90     30.30
2019-01-01 00:20:00  KPDX          0           0     3       2       10      110     30.28

我遇到的问题是,有时科学家会回头并更正观察结果-不是通过编辑错误的行,而是通过将重复的行附加到文件末尾来进行的。下面是这种情况的简单示例:

import pandas 
import datetime
startdate = datetime.datetime(2019, 1, 1, 0, 0)
enddate = datetime.datetime(2019, 1, 1, 5, 0)
index = pandas.DatetimeIndex(start=startdate, end=enddate, freq='H')
data1 = {'A' : range(6), 'B' : range(6)}
data2 = {'A' : [20, -30, 40], 'B' : [-50, 60, -70]}
df1 = pandas.DataFrame(data=data1, index=index)
df2 = pandas.DataFrame(data=data2, index=index[:3])
df3 = df2.append(df1)
df3
                       A   B
2019-01-01 00:00:00   20 -50
2019-01-01 01:00:00  -30  60
2019-01-01 02:00:00   40 -70
2019-01-01 03:00:00    3   3
2019-01-01 04:00:00    4   4
2019-01-01 05:00:00    5   5
2019-01-01 00:00:00    0   0
2019-01-01 01:00:00    1   1
2019-01-01 02:00:00    2   2

因此,我需要df3断然成为:

                       A   B
2019-01-01 00:00:00    0   0
2019-01-01 01:00:00    1   1
2019-01-01 02:00:00    2   2
2019-01-01 03:00:00    3   3
2019-01-01 04:00:00    4   4
2019-01-01 05:00:00    5   5

我认为添加一列行号(df3['rownum'] = range(df3.shape[0]))可以帮助我为的任何值选择最底端的行DatetimeIndex,但是我一直想弄清楚group_byor pivot(或???)语句才能使该行生效。


问题答案:

我建议对熊猫指数本身使用重复的方法:

df3 = df3.loc[~df3.index.duplicated(keep='first')]

尽管所有其他方法都起作用,但是对于所提供的示例,当前接受的答案到目前为止性能最低。此外,尽管groupby方法的性能稍差一些,但我发现重复的方法更具可读性。

使用提供的样本数据:

>>> %timeit df3.reset_index().drop_duplicates(subset='index', keep='first').set_index('index')
1000 loops, best of 3: 1.54 ms per loop

>>> %timeit df3.groupby(df3.index).first()
1000 loops, best of 3: 580 µs per loop

>>> %timeit df3[~df3.index.duplicated(keep='first')]
1000 loops, best of 3: 307 µs per loop

请注意,您可以通过更改keep参数保留最后一个元素。

还应该注意,该方法也可以MultiIndex使用(使用Paul的示例中指定的df1 ):

>>> %timeit df1.groupby(level=df1.index.names).last()
1000 loops, best of 3: 771 µs per loop

>>> %timeit df1[~df1.index.duplicated(keep='last')]
1000 loops, best of 3: 365 µs per loop


 类似资料:
  • 我有一个数据帧(df) 我试图删除任何具有相同snap_time索引的行 我试过: 但它没有删除重复的行。 本例的预期输出为:

  • 问题内容: 我正在使用SQL Server 2008,并且拥有一个数据库,其中包含150个以上具有重复索引的表。 我发现一些SQL脚本将列出重复的索引,但是我不确定是否应该信任它们。据说他们说我有400多个重复索引;我不确定这是否正确,因此不希望使用它们来自动删除重复项。 如何确定找到重复索引并将其删除? 问题答案: 查看Tom LaRock出色的“如何查找重复索引”博客文章-他详细解释了如何进行

  • 问题内容: 我必须清理具有重复行的表: 一个可能具有多个值: 我想对整个表执行一个查询,并删除和重复的所有行。在上面的示例中,删除后,我只想剩下1、2、4和5。 问题答案: ;WITH x AS ( SELECT id, gid, url, rn = ROW_NUMBER() OVER (PARTITION BY gid, url ORDER BY id) FROM dbo.table ) SEL

  • 我有一个数据框 我只想保留唯一的索引,因为索引1是重复的,我想删除它的第二个实例,我该怎么做?我想要我的结果

  • 名 Middlename lastname dob 地址 城市 状态 电话 验证日期 它有许多相同的行,除了有效日期。例如: 我希望运行一个脚本,删除除最后一列()以外的所有匹配的重复项,只在表中保留以下内容,这是: 它不起作用,实际上弹出以下错误: 另外,我想根据字母表的最后一个字母分阶段运行它。因此,需要在某个地方添加类似这样的lastname。