当前位置: 首页 > 知识库问答 >
问题:

将pandas_datareader存储到新的csv文件[重复]

曾航
2023-03-14
def handle_data(symbol, start, end):
    stock_data = data.DataReader(
        symbol,
        'yahoo',
        start,
        end)

    return stock_data


x = handle_data(ticker, start=datetime(2021, 1, 2), end=datetime(2021, 2, 5))

此函数返回以下内容:

                  High         Low        Open       Close    Volume  \
Date                                                                   
2021-02-02  136.309998  134.610001  135.729996  134.990005  83305400   
2021-02-03  135.770004  133.610001  135.759995  133.940002  89880900   
2021-02-04  137.399994  134.589996  136.300003  137.389999  83946000   
2021-02-05  137.410004  135.860001  137.350006  136.759995  72317009   

我想让我的python脚本可以将股票历史数据保存到一个csv文件中,这样我就可以在以后的项目中使用它。我试着用csv模块做这件事,但是找不到任何与我正在尝试做的事情相匹配的东西。是否有任何方法可以将这些数据存储到一个新的csv文件中,而不需要一个现有的文件。

共有1个答案

马峻
2023-03-14

您离答案只差一行代码。

x.to_csv('mydata.csv', index = True) 
 类似资料:
  • 我目前正在将spark数据帧存储为。Azure上blob存储中的csv文件。我正在使用以下代码。 这是可行的,但它会创建一个SmtRef。csv文件夹中的实际。csv文件存储为part-00000-tid。csv。如何指定实际的名称。csv文件? 提前感谢

  • 我正在尝试使用pyspark来分析我在数据砖笔记本上的数据。Blob 存储已装载到数据砖群集上,在分析后,希望将 csv 写回 blob 存储。由于 pyspark 以分布式方式工作,csv 文件被分解为小块并写入 Blob 存储。如何克服这个问题,并在我们使用pyspark进行分析时在blob上编写为单个csv文件。谢谢。

  • 问题内容: 我想计算一些列数据并将其作为列写入文件。然后,在计算了另一列数据之后,我想将其附加到同一文件中,但作为新列。 这是我所做的: 结果-它将新列追加到第一列下方,因此我只有一个长列。 谢谢, 问题答案: 您将必须逐行读取文件,然后将新列插入每一行。这是使用BufferedReader和BufferedWriter的解决方案

  • 我有一个程序,期待一个csv文件,并用python编写。 假设csv数据来自scala,scala使用spark功能存储源数据并存储到temp表中,如下所示。

  • 我相当愚蠢地上传了一个vhd到Azure文件存储,以为我可以从它创建一个虚拟机,却发现它真的需要在Blob存储中。 我知道我可以再上传一次,但它非常大,我的上传速度非常慢。 我的问题是-我可以将文件从文件存储移动到blob存储,而无需再次下载/上传吗?也就是说,Azure门户UI中是否有任何东西可以执行此操作,甚至是PowerShell命令?

  • 我正在运行一个部署到Google App Engine的Node.js应用程序。我还使用了winston库和'StackDriver Logging winston Plugin'[@google-cloud/logging-Winston]。 “链接到温斯顿日志设置教程” “链接到将日志导出到谷歌存储桶的教程” 我通过创建一个接收器将stackdriver日志导出到Google存储桶。目前,所有