当前位置: 首页 > 知识库问答 >
问题:

scala(java time api)中的分析日期

龙星辰
2023-03-14

嗨,我正在尝试解析scala中带有日期的字符串。我尝试了以下方法:

    import java.time.format.DateTimeFormatter
   import java.time.LocalDateTime
    val date="20 October 2015"
    val formatter=DateTimeFormatter.ofPattern("dd MMMM yyyy")
    val dt=LocalDateTime.parse(ts,formatter)

但是我得到了以下例外:

java.time.format.DateTimeParseException: Text '20 october 2015' could not be parsed at index 3
  at java.time.format.DateTimeFormatter.parseResolved0(DateTimeFormatter.java:1949)
  at java.time.format.DateTimeFormatter.parse(DateTimeFormatter.java:1851)
  at java.time.LocalDateTime.parse(LocalDateTime.java:492)
  ... 29 elided 

为了进行解析,我使用了标准Java API的DateTimeFormatter和LocalDateTime

共有2个答案

夹谷茂
2023-03-14

您对LocalDate与LocalDateTime感到困惑,LocalDateTime时代一起使用,例如:

println(LocalDateTime.now())
> 2017-03-13T15:11:42.559

LocalDateDay一起使用,没有Time,例如:

println(LocalDate.now())
> 2017-03-13

例如,您应该使用:LocalDate来解析时间文本,如:

LocalDate.parse(date,formatter)

颛孙铭
2023-03-14

使用

val dt=LocalDate.parse(date,formatter)

而不是LocalDateTime,因为您的日期字符串不包含任何时间信息。

 类似资料:
  • 日段分析分为五部分:设备筛选 、 最近31天分析、 所有时间日分析 、 最近31天分析表 和 所有月份31天分析表 1.设备筛选 可在顶部选择全部设备,或者电脑端、移动端进行分析数据 2.最近31天分析(趋势图) 1)以最近31天为单位,查询最近31天内的流量日段分析情况,趋势图能直观反映各变量的变化趋势 2)底部含前30天平均值,展示对应指标平均数值 2)如有需要,亦可点击下载当前报表及更

  • 问题内容: 我正在使用和选项打开gc日志记录。 但是发现只有在4 0r 5后才通过命令打印我的gc日志的实际详细信息! 按照定义,将为每个gc打印应用程序停止时间。 但是我不清楚为什么它会打印如下所示的示例。 是因为 只需在每个安全点到达后打印 (要么) 该日志文件将由其他gc线程记录。我正在使用并发扫描进行完整GC,并为年轻一代使用ParNew 我的应用程序是Web应用程序。 O / p模式-我

  • 如何从日期对象中移除时区。 请帮忙。

  • 我有一个通用JSON,其中所有键和值都是字符串。 示例1: 但JSON也可以是:例如2: 我想将JSON转换为映射。示例1将转换为Map[字符串,字符串] 示例2将转换为列表[映射[字符串,字符串]] 因此,基本上我想将JSON转换为Map,并按如下方式使用它: 地图(“键1”)(“键2”)(“键3”) 获取最终结果值3。 请帮忙!!

  • 可能很简单,但是我找不到正确的格式来解析数据帧中的日期。 解析日期:2021年4月1日Thu(df名称:df data,列名:Date) 我的尝试: “”date_p=pd.to_datetime(nba_data.date,format=“%a%b%-m%y”)“” 我知道“-”根据错误是格式中的一个错误指令。然而,据我所知,只有%m会指01而不是1。我的假设对吗。 会非常感谢任何帮助。

  • 我正在寻找一种解决方案,能够在Apache Spark节点上执行代码时记录额外的数据,这有助于调查稍后在执行过程中可能出现的一些问题。尝试使用传统的解决方案,例如失败,因为无法在Apache Spark这样的分布式环境中序列化日志实例。 我已经研究了这个问题,现在我发现的解决方案是使用特性如下: 然而,日志特性似乎不是Apache Spark的永久解决方案,因为它被标记为,并且类留档提到: 这可能