我有一句名言:
`{'10/12/2020': 'Hello', '11/12/2020': 'Bye'}
我想把它转换成熊猫数据帧,这样一列是键,另一列是值。我该怎么做?
< code>pd。data frame . from _ dict(data)不起作用
键值字典更类似于系列
,请尝试执行序列
,然后将其转换为数据帧
。
>>> import pandas as pd
>>> data = {'10/12/2020': 'Hello', '11/12/2020': 'Bye'}
>>> pd.Series(data).to_frame("whatever you want the column name to be")
whatever you want the column name to be
10/12/2020 Hello
11/12/2020 Bye
>>> pd.Series(data).to_frame("whatever you want the index name to be").T
10/12/2020 11/12/2020
whatever you want the index name to be Hello Bye
如果您使用列表格式,这不是问题。
import pandas as pd
data = [{'10/12/2020': 'Hello', '11/12/2020': 'Bye'}]
df = pd.DataFrame.from_dict(data)
df
10/12/2020 11/12/2020
0 Hello Bye
这是你想要的吗?:
import pandas as pd
data = {'10/12/2020': 'Hello', '11/12/2020': 'Bye'}
df = pd.DataFrame(data.items())
print(df)
输出:
0 1
0 10/12/2020 Hello
1 11/12/2020 Bye
集合。OrderDict
,用于这些版本的 Order dict。有没有比调用多个帧更好的方法来同时为给定的 SparkSQL 添加前缀或重命名所有或多个列? 例如,如果我想检测更改(使用完全外连接)。然后我剩下两个具有相同结构的< code >数据帧。
我想将以下数据框的第1列重命名为“Ref”。我有很多列,因此无法重命名每个列或为每个列设置名称。 这是数据帧 现在我想将第一列重命名为'Ref'。我试过这个 它重命名所有标题与列[1]相似的列。
以下脚本: Floor1正在正确执行,Floor2使用相同的df执行,但使用重命名的列则不正确。我得到一个关键错误: 我知道,有一个类似的问题:重命名列后get keyerror 但我并没有真正得到答案,更重要的是,我没有找到解决办法。
我正在用PySpark DataFrames分析一些数据。假设我有一个正在聚合的数据帧< code>df: 这将给我: 聚合工作得很好,但我不喜欢新的列名。有没有办法将此列重命名为人类可以从方法中读取的内容?也许更类似于中的操作:
我有火花2.2中的数据框,我想读取一个列值作为字符串。 当col1为空时,我想在col2中获取字符串值,并在那里追加我的逻辑。 问题是我总是得到作为。我如何将此值转换为以追加我的自定义字符串?
我有一个这样的数据框: 输出应如下所示 有没有一种方法可以在没有循环的情况下获得这个结果,一些可移植的代码来获得这个输出?