当前位置: 首页 > 知识库问答 >
问题:

spark-class java没有这样的文件或终止文件

濮阳靖
2023-03-14

我是spark/scala的新手...我已经建立了一个完全分布式的集群spark/scala和SBT。当我测试并发出命令pyspark时,我得到以下错误:

/home/hadoop/spark/bin/spark-class第75行/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java-没有这样的文件或目录

export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64 

hadoop-env.sh contains export JAVA_HOME=/usr/lib/jvm/java7-openjdk-amd64/jre/ 
conf/spark-env.sh contains JAVA_HOME=usr/lib/jvm/java7-openjdk-amd64/jre 
spark-class contains 
if [ -n "${JAVA_HOME"}]; then RUNNER="${JAVA_HOME}/bin/java" else if [ "$( command -v java ) " ] then RUNNER = "java"

有人能帮助我改变什么来获得java的正确路径吗

共有1个答案

夏弘文
2023-03-14

我发现这个问题匹配了从。bashrc到etc到spark.conf的所有路径

 类似资料:
  • 我正试图在我的iMac上安装apache-spark,使用以下两页中的说明: https://medium.com/macoclock/how-to-install-apache-pyspark-on-macbook-pro-4A9249F0D823 /usr/local/cellar/apache-spark/3.0.1/libexec/bin/spark-shell:第60行:/usr/loc

  • java_home=“/usr/lib/jvm/java-8-openjdk-amd64/jre/bin/” 这是我当前的java设置: root@ubuntu:~#update-alternative-config java在链接组java中只有一个替代方案(提供/usr/bin/java):/usr/lib/jvm/java-8-openjdk-amd64/jre/bin/java http:

  • 问题内容: 我在Windows中使用Code :: Blocks。 我创建了一个dll项目,试图获得一些JNI实践。 在javah生成的.h文件中,有#include jni.h,但是当我尝试对其进行编译时,它总是说jni.h:没有这样的文件或目录。 我认为这与classpath有关,但我不知道它是什么!可能是我必须更改Code :: Blocks的设置 有人可以帮我解决这个问题吗?非常感谢 编辑

  • 问题内容: 我从节点应用程序收到此错误: 我知道文件在那里,因为当我尝试使用确切的复制和粘贴路径打开文件时,它可以工作。我也知道应用程序使用的是正确的目录,因为它会在错误中输出它。 问题答案: 波浪形扩展是一件空壳的事情。编写正确的路径名(可能是yourusername )或使用

  • 问题内容: 我最近在运行Ubuntu 12.04 LTS的Macbook Pro上安装了用于C ++开发的KDevelop 4。 我想在我的C ++代码中嵌入Python应用程序。为此,需要包含Python.h头文件。所以,我做到了。 但是,在运行时,我从IDE收到以下响应: 但是,我很快就发现了问题。我还没有下载python- dev软件包。所以,我做到了。我又跑了一次,但同样的错误又出现了。因

  • 问题内容: 我在运行docker文件时收到来自docker的错误消息。就是说/ var / lib / docker / aufs / layers / xxxx:运行Docker build时没有这样的文件或目录。 我尝试了多种方法来删除容器和图像,因此我对此非常有兴趣。 任何 Docker文件为: 完整的控制台输出为: 编辑 @BMitchs的建议解决了该问题: rm -rf / var /