我有一个这样的数据框: 如何将转换为矩阵如下: 然后,我需要将导出到Excel或csv文件。
我希望能够添加一个列,根据值按顺序计算行数。例如,下面是三个不同的人,他们的记录有时间戳。我想根据PersonID计算记录的顺序。这应该为每个PersonID重新启动。(我可以用Index()在Tableau中执行此操作,但我希望它也是原始文件的一部分) 有没有办法减去日期时间呢?我的方法是只选择顺序1作为数据帧,然后只选择顺序2,然后合并,然后减去。有没有一种方法可以自动完成?
我有一份可能有出口问题的项目清单。我想得到一个重复项目的列表,这样我就可以手动比较它们。当我尝试使用熊猫复制方法时,它只返回第一个副本。有没有办法得到所有的副本,而不仅仅是第一个? 我的数据集的一小部分如下所示: 我的代码目前看起来像这样: 有两个重复的项目。但是,当我使用上面的代码时,我只得到第一项。在API参考中,我看到了如何获得最后一项,但我希望获得所有这些项,以便我可以直观地检查它们,以了
我有一个数据帧,其中包含各种不同的值,表示丢失。我对其进行了修改,现在应将它们全部指定为“NaN”,如下所示: 但是使用建立在公认的缺失值上的熊猫函数不起作用,我认为这是由于我没有导入指定值的数据帧(因为这会导致其他问题,我正在处理一个比示例)我现在正在寻找一种方法来在此数据集中应用熊猫函数,如。
我一直在分析几个月的数据,然后每月生成并保存一个数字。到目前为止,当这些都在同一日历年内时,这非常有效,但我很困惑,当数据跨越到下一年时,如何指示循环工作。 示例代码: 这个SO问题很接近,尽管他们使用熊猫日期时间对象而不是我使用的datetime.date对象。我是否应该修改代码以适应解决方案,如果是,如何修改?否则,一旦我们超过2016年,有没有熊猫/蟒蛇的方法让它发挥作用——无论是已知的开始
我有一个n-by-m熊猫DataFrame定义如下。(我知道这不是最好的方法。这对我在实际代码中尝试做的事情是有意义的,但这将是这篇文章的TMI,所以请相信我的话,这种方法在我的特定场景中是有效的。) 我将列表存储在此DataFrame的单元格中,如下所示。 出于某种原因,DataFrame将此列表存储为字符串而不是列表。 我有两个问题要问你。 为什么DataFrame将列表存储为字符串,是否有办
因此,我有一个如下所示的数据frame: 我想检查经度列中的单元格是否有N或s。
我正在使用: 熊猫版本0.23。0 Python版本3.6。5. Seaborn版本0.81。1. 我想要一列时间戳数据的方框图。我的dataframe不是一个时间序列,索引只是一个整数,但我创建了一列时间戳数据,使用: 我过滤掉所有由胁迫产生的NaT值。 在这一点上,我的数据看起来不错,我可以确认EVENT_DM_TS列的类型是Timestamp,没有无效值。 最后,要生成我调用的单变量方框图:
我有一个熊猫数据框,如下所示: 我如何将每分钟的数据分组,并计算每分钟每个状态的数量,以获得此数据帧:
我试图检查python列中是否包含某个值。我正在使用,这无疑是一个很好的工具。问题是我有超过350K行,输出不会显示所有行,这样我就可以看到值是否实际包含。简单地说,我只想知道(Y/N)列中是否包含特定的值。我的代码如下:
我有一个pandas数据框,我想从中删除特定列中字符串长度大于2的行。 我希望能够做到这一点(根据此答案): 但我只是得到了错误: 我做错了什么? (注意:我知道我可以使用删除包含任何的行,但我没有看到如何基于条件表达式删除行。)
我有两个Pandas Dataframe和,其中是的一部分,我想创建一个Dataframe,其中包含中的code>。 以下是一个例子: 注: 我的DataFrame可能有多个列,但是必须仅在列上进行匹配。
我记录一个设备,每15分钟读取3个值(,,)。它们可以重复。 我需要找出每小时在该间隔内读取的12个值中最大的3个值是什么。我对它们何时发生不感兴趣,只对它们的值感兴趣。 目前,我的算法还远远不够高效和快速: 在每组中循环: 我想去掉这个循环,使用原生的pandas/numpy方法。可能吗? 编辑:在这篇文章的末尾提出了一个可行的解决方案 以下是代码: 回报: 解决方案 我在代码中实现这个解决方案
我在一个特定的文件夹中有很多CSV文件。我想检查其中的每个文件是否为空,如果是,请打印其名称。 文件夹: 预期产出:
我想知道是否有一种更简单、内存高效的方法来从熊猫数据帧中选择行和列的子集。 例如,给定此数据帧: 我只想要那些列c的值大于0.5的行,但是我只需要那些行的列b和e。 这就是我想出的方法——也许有更好的“熊猫”方法? 我的最终目标是将结果转换为numpy数组,并传递到sklearn回归算法中,因此我将使用上面的代码,如下所示: …这让我很恼火,因为我最终在内存中获得了一个巨大的数组副本。也许还有更好