当前位置: 首页 > 知识库问答 >
问题:

在spark java中使用空数据集打印带有头(列名)的csv文件[重复]

连正信
2023-03-14

2)如果数据集不为空,则打印csv文件中的数据的标题

需要第一点的解决方案

第二点是使用此代码

dataset.toDF().coalesec(1).write().format("csv")
   .option("delimiter","|")
   .option("header","true")
   .option("nullValue",null)
   .mode(Savemode.Overwrite)
   .save("path");

共有1个答案

罗昕
2023-03-14

这是OSS的一个bug,正在Spark3版本中修复。

这是jira关于这个问题的罚单

https://issues.apache.org/jira/browse/spark-26208

 类似资料:
  • 我对Spark和Scala非常陌生(比如两个小时的新体验),我正在尝试玩CSV数据文件,但我无法做到,因为我不确定如何处理“标题行”,我在互联网上搜索了加载或跳过它的方法,但我真的不知道怎么做。我正在粘贴我正在使用的代码,请帮助我。

  • 问题内容: 我正在尝试编写脚本,将大照片裁剪并调整为高清壁纸。 但是该脚本似乎在文件名中带有空格的问题(例如Tumble Weed.jpg)。我怎样才能解决这个问题? 问题答案: 首先,您不需要。通过在backtics中使用,您可以使bash隐式地将字符串解析为一个列表,该列表按空格分隔。而是让bash生成列表并将其分离,而无需进行此类怪癖: 另外,您需要将所有用法都括在引号中,以使bash整体上

  • 当您尝试使用emptyDF创建csv文件时,Spark会创建一个没有头的空文件,即使header选项是true(header=true) 是否可以为EMPTYDF创建带有头的csv文件?

  • 我正在考虑使用JMeter进行负载测试。 我计划创建一个中等数量的线程~300个,因为我从各种帖子中读到JMeter不能很好地伸缩,而且我没有一些真正特殊的硬件。 所以我计划循环~20次来模拟6000个用户。 如果我使用一个包含6000个条目的CSV数据集,JMeter会为每个线程提供一个CSV文件的单独条目,这样在20个循环的末尾,所有条目都将作为请求的一部分发送到服务器,还是在每个循环的开始,

  • 因此,我一直在尝试收集特定文件夹中的所有文件名,并将它们存储在数组[]中,或者如注释所示,存储在列表中。 以下是到目前为止的代码: 谢谢你的帮助!

  • 我有一个csv,我需要能够打印记录的总数,这是如何做到的?我尝试使用总和语句和计数,但似乎没有工作