嘿嘿,我有以下数据框:
df1:
col1 col2 col3 col4
0 31 53 82
1 23 73 32
2 35 34 12
3 36 13 24
4 23 93 36
我想删除所有行,这些行的in col1值为2或smaler,因此看起来像:
df1:
col1 col2 col3 col4
3 36 13 24
4 23 93 36
我该怎么做?非常感谢。
只要保留那些值高于2的:
df1 = df1.loc[df1.col1 > 2]
我有一个熊猫数据框,看起来像这样(但实际上要大得多): 我只想删除包含-500(2)和整列(f和g)的整行。我的数据框是自动生成的,我还不知道哪些列和行包含-500。 有人知道怎么做吗? 谢谢
假设我有一个相当大的数据集,其形式如下: 我想做的是只根据第一、第三和第四列的值删除重复的行。 在Python中,这可以通过使用指定列来实现。如何在Spark/PySpark中实现相同的功能?
我有一个df,在许多行和列中,'-1'出现,这是错误的数据。我试图按列删除: df.drop(df[df['region']==-1].index) 但想知道是否有办法为整个df一次做到这一点?
我有一个熊猫数据框,看起来像这样。 我想确定猫和蝙蝠是重复的相同值,因此想删除一条记录,只保留第一条记录。所得到的数据帧应该只具有。
我有一个6000行数据框,我想删除所有值小于2的行。我目前的尝试是:df=煤[煤['值'] 我已经附上了我的df的快照,我想删除较小的值。我对python还是比较陌生的,所以请容忍我。 https://i.stack.imgur.com/3mbA7.png
我有一个包含许多列和观察值的数据帧(et5)。其中一列是“MRN”,这是数据框中每个观察/患者的唯一代码,另一列是“年龄”。首先,如何将所有MRN和年龄并排显示?第二,我如何通过MRN删除特定观察/患者。 我的数据框(et5)是什么样子的