当前位置: 首页 > 知识库问答 >
问题:

读取发送至AWS Lambda的CSV格式的时间序列数据

邰博远
2023-03-14

以csv格式读取通过API Getaway发送到AWS Lambda的时间序列数据的正确方法是什么?

import pandas as pd

def lambda_handler(event, context)

    data = pd.read_csv(event['body'], index_col='time', parse_dates=['time'])

我试图使用read_csv函数来解析事件主体,但得到一个错误。

{
  "errorMessage": "'body'",
  "errorType": "KeyError",
  "requestId": "d7759f9e-4ef6-4ffa-bc9c-bf9379b47d58",
  "stackTrace": [
    "  File \"/var/task/lambda_function.py\", line 6, in lambda_handler\n    v = event['body'].read()\n"
  ]
}

共有1个答案

狄安歌
2023-03-14

我想出了办法。我使用了io库中的StringIO函数。

import pandas as pd
import io

def lambda_handler(event, context):

    data = pd.read_csv(io.StringIO(event['body']), index_col='time', parse_dates=['time'])
 类似资料:
  • 问题内容: 进行时: 与此文件: (第一个列是UNIX时间戳,即自1970年1月1日起经过的秒数),当我每15秒对数据进行一次重采样时出现以下错误: 就像“ datetime”信息尚未解析: 如何使用熊猫模块导入带有存储为时间戳的日期的.CSV? 然后,一旦我能够导入CSV, 如何访问日期 > 2015-12-02 12:02:18的行? 问题答案: 我的解决方案类似于Mike的解决方案:

  • 我收到的csv文件格式不正确(无法控制生成此csv的应用程序) CSV的标题和第一行如下所示: 这是我用来读取csv的代码: 这是我收到的输出: 第一个问题是奇怪的字符(可能缺少编码选项?)另外,标题是错误的,不能在该格式上使用DictReader,这对于编辑CSV非常有用。 我可以重写一个新的CSV与标题正确格式化,这不是一个问题,但我不知道如何跳过CSV的前3行!?或者我可以用CSV即将到来的

  • 本文向大家介绍C#读取csv格式文件的方法,包括了C#读取csv格式文件的方法的使用技巧和注意事项,需要的朋友参考一下 本文实例讲述了C#读取csv格式文件的方法。分享给大家供大家参考。具体实现方法如下: 一、CSV文件规则   1 开头是不留空,以行为单位。 2 可含或不含列名,含列名则居文件第一行。 3 一行数据不跨行,无空行。 4 以半角逗号(即,)作分隔符,列为空也要表达其存在。 5 列内

  • 我在Azure上有一个Databricks5.3集群,它运行Apache Spark 2.4.0和Scala 2.11。 我不是Java/Scala开发人员,也不熟悉Spark/Databricks。我找不到Spark用来解析值的datetime格式化程序。 我尝试的模式:

  • 我有一个大熊猫时间帧,它有一个列,这个时间格式:例如(小时,分钟,秒)。这些值是通过熊猫从我的SQL数据库中提取的,具有以下查询函数 我想将这些时间值转换为分钟(或秒),因为我想对作为我的持续时间变量的值执行线性回归。我该怎么做呢?是否有一种方法可以将这些值(例如,将<code>14:30:00 示例数据帧:

  • [2M2021-08-28 10:24:36.741[0;39M[32M信息[0;39M[35M10388[0;39M[2M----[0;39M[2M[main][0;39M[3M[2M:[0;39M步骤:[step1]在72ms内执行[0;39M[32M信息[0;39M[35M10388[0;39M[2M[2M----[0;39M[2M[2M[ main][0;39M[2M[2M[ main][