当前位置: 首页 > 知识库问答 >
问题:

用s3中的spark加载json时的FS错误

燕和同
2023-03-14
val polygons = spark.read.format("magellan").option("type", "geojson").load(inJson)

共有1个答案

贝浩歌
2023-03-14

这是MagellanWholefileReader中的问题。它得到的是默认文件系统。

用这个拉请求解决了

解决方案是这样的:

-      val fs = FileSystem.get(conf)
+      val fs = path.getFileSystem(conf)
 类似资料:
  • 在此输入图像说明 error_------------------------------------------------------------Py4JJavaError Traceback(最近调用last)in()---->1 sparkDF=sqlcontext.read.format('com.databricks.spark) /home/ec2-user/spark/python

  • 我们正在尝试使用StreamingFileSink写入S3桶。这是一个简单的工作,从Kafka读到S3。s3的凭据在flink集群中配置。我们使用的Flink1.7.2没有预绑定的Hadoop。正如文档中所建议的,我们已经将flink-s3-fs-hadoop jar添加到flink集群的lib目录中。当我们运行作业时,我们会得到这个特殊的Kerberos异常。我们做错了什么?我们是否缺少任何配置

  • 看起来这应该很容易,就像这是这组特性的核心用例一样,但它一直是一个又一个问题。 最近的一次尝试是通过Glue-Devendpoint(PySpark和Scalaendpoint)运行命令。 遵循此处的说明:https://docs.aws.amazon.com/glue/latest/dg/dev-endpoint-tutorial-repl.html 生成此错误: 它还会在其中一个设置行中生成此

  • 我使用库从系统中读取文件。我不知道我使用这个库并遇到错误。 > 我正在使用PhpStom。在行::下面有一行,注意到我:未解析的函数或方法readFile()。这意味着IDE没有弄清楚这个函数在哪里。尽管如此,我已经检查了,我没有看到任何问题。 我在运行时收到此错误: 事件。js:72投手;//未处理的“错误”事件^错误:在服务器上的errnoException(net.js:901:11)处侦听

  • 我拥有的复制命令: 我的红移星系团的区域是AP-东南-1b,所以这将是与水桶(新加坡)相同的区域。我在这里不知所措,我需要尽快向管理层提出一个可行的数据仓库解决方案。任何帮助都将不胜感激。谢了。

  • 我正在尝试加载一个CVS,其中包含一个数据类型为“timestamp”的字段当我尝试将该数据加载到表中时,会出现以下错误: 谷歌。应用程序编程接口。果心例外情况。BadRequest:400 CSV表遇到太多错误,放弃。行:1;错误:1。 我知道这一列是问题所在,因为当我删除这一列时,数据上传不会出错。我应该如何上传时间戳。 我正在使用bigquery API,python客户端库。 我的数据如下