当前位置: 首页 > 知识库问答 >
问题:

Spark安装错误=>初始化编译器失败:找不到编译器镜像中的对象java.lang.object

杨良平
2023-03-14

安装了Java-11-openjdk-amd64,并在usr/lib/jvm/Java-11-openjdk-amd64/bin/java的auto中运行了它,在我的桌面上安装了Scala 2.11.12和spark 2.2.0以及Hadoop2.7,在windows 10上运行了linux mint VM19.2。我在打开Spark-shell时出错:

Failed to initialize compiler: object java.lang.Object in compiler mirror not found. 

我还在主目录中的。bashrc文件中定义了变量,如下所示:

export JAVA_HOME=/usr/lib/jvm/Java-11-openjdk-amd64
export SCALA_HOME=/usr/local/src/scala/scala-2.11.12
export SPARK_HOME=/usr/lib/spark/spark-2.2.0-bin-hadoop2.7
export PATH=$SCALA_HOME/bin:$JAVA_HOME/bin:$SPARK_HOME/bin:$PATH

我该怎么解决这个?我必须把它换成Java8才能运行Spark吗?我试图使用update-alternative--config java在java-8-openjdk-amd64上运行它,但我无法更改选定的java,因为它给我带来了另一个错误:权限被拒绝。

我如何使用命令行将Java8移动到另一个文件夹,因为我不能手动这样做?我是Linux和Spark的新手…

共有1个答案

邴俊达
2023-03-14

您应该使用Java8,因为Spark在很大程度上依赖于Java8的某些特性,其中privatedepreced或在Java9及更高版本中删除。

副本:https://www.webservertalk.com/copy-directory-folder-linux-cmd

 类似资料: