import pyspark
sc = pyspark.SparkContext('local[*]')
Py4JJavaError: An error occurred while calling None.org.apache.spark.api.java.JavaSparkContext.
: java.lang.IllegalAccessError: class org.apache.spark.storage.StorageUtils$ (in unnamed module @0x724b93a8) cannot access class sun.nio.ch.DirectBuffer (in module java.base) because module java.base does not export sun.nio.ch to unnamed module @0x724b93a8
我似乎找不到是什么引起的:/
Spark在Java 8/11
、Scala2.12、Python 3.6+和R3.5+上运行。Python 3.6支持从Spark 3.2.0起就不推荐了。
从Spark 3.2.0起,不再支持8U201之前的Java8
对于Scala API,Spark 3.2.0使用Scala 2.12。您将需要使用兼容的Scala版本(2.12.x)。
我正在运行一个简单的代码来在hdfs上创建一个文件,并向其写入内容,然后关闭该文件。我可以在本地模式和纱线客户端模式下运行此代码。但是,当我用yarn-cluster模式运行相同的代码时,我在初始化sparkcontext时会遇到
我一直在使用Spark2.0.1,但试图通过将tar文件下载到我的本地并更改路径来升级到更新的版本,即2.1.1。 然而,现在当我尝试运行任何程序时,它在初始化SparkContext时都失败了。即。
我试图在Windows 8.1上运行Apache Spark调用Spark shell命令时,得到以下堆栈: 系统变量配置如下: HADOOP\u主页: c: \ hadoop JAVA_HOME: C: \Java\jdk1.8.0\u 162 SCALA_HOME: C: \斯卡拉 SPARK\u主页: C: \ spark\spark-2.3.0-bin-hadoop2.7 路径: %JAV
我有我的文件下面: 我也有例子。: 出于某种原因,当我做在我的根目录(不是)我得到错误: 有人能给我解释一下这个错误中的问题吗?这是因为我的依赖项没有正确安装,还是因为其他原因?
据我所知,在Java11中,这两个操作可以在一行中完成,不是吗?
我按照步骤创建了HelloWorld示例,但它没有运行。它给出了以下错误: 初始化引导层java.lang.module.FindException时出错:读取模块:F:\Develop\Eclipse\HelloWorld\bin时出错,原因是:java.lang.module.InvalidModuleDescriptoRexception:HelloWorld.class在顶级目录中找到(模