假设我创建了一个熊猫数据帧
df = pd.DataFrame(dict)
现在我正在运行一个像这样的选择
print(df.iloc[2])
问题是:我如何将这个结果导出/保存到一个CSV文件?
预先默许
a
您可以在df
的子集上使用to_csv
函数。
df.iloc[2].to_csv('path/myfile.csv')
(希望有人能帮我解决这个问题)非常感谢!!
我有一个脚本可以将一整串CSV输出到文件夹C:\scripts\csv。这个特定的脚本循环了所有的数据流,并计算了数据集中前100个单词的使用情况。前100个单词及其计数被添加到一个列表中,数据流被串联,然后csv应该导出。打印包含正确的信息,但脚本不输出任何文件。
问题内容: 我正在处理熊猫和Spark数据帧。数据帧始终很大(> 20 GB),而标准的火花功能不足以容纳这些大小。目前,我将我的pandas数据框转换为spark数据框,如下所示: 我进行这种转换是因为通过火花将数据帧写入hdfs非常容易: 但是,对于大于2 GB的数据帧,转换失败。如果将spark数据框转换为熊猫,则可以使用pyarrow: 这是从Spark到Panda的快速对话,它也适用于大
你好,我有一个pandas系列的数据文件名“boilerinfo”来自一个API请求,我想创建一个CSV文件的数据。我该怎么做? python可以在这个目录中创建一个CSV文件吗?C:\users\lingbart\documents\python\wb Data
我在pandas中有一个数据帧,我想把它写到CSV文件中。我使用的是: 并得到错误: 有没有什么方法可以很容易地解决这个问题(例如,我的数据帧中有unicode字符)?还有,有没有一种方法可以使用“to-tab”方法(我认为不存在)写入以制表符分隔的文件,而不是CSV?