当前位置: 首页 > 知识库问答 >
问题:

Ubuntu 14上的Hadoop安装2.6.0-Java错误

唐泳
2023-03-14

当我试图为Java设置home变量时,它似乎没有按照预期的方式进行。

我在我的机器上作为hduser安装程序专门用于运行和使用Hadoop。此用户是sudoer。

一些信息:

java -version' gives the following

java version "1.7.0_79"
OpenJDK Runtime Environment (IcedTea 2.5.5) (7u79-2.5.5-0ubuntu0.14.04.2)
OpenJDK 64-Bit Server VM (build 24.79-b02, mixed mode)
update-alternatives --display java
java - auto mode
link currently points to /usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java
/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java - priority 1071
slave java.1.gz: /usr/lib/jvm/java-7-openjdk-amd64/jre/man/man1/java.1.gz
Current 'best' version is '/usr/lib/jvm/java-7-openjdk-amd64/jre/bin/java'.
cd /usr/lib/jvm

并列出内容ls

default-java  java-1.7.0-openjdk-amd64  java-7-openjdk-amd64

然后键入cd java*pwd,这将显示以下路径:

/usr/lib/jvm/java-1.7.0-openjdk-amd64

好的,使用这些信息,然后将该目录复制到.bashrc文件中,如下所示:

# The java implementation to use.
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-amd64
#Hadoop variables
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-amd64
/usr/bin/hadoop: line 350: /usr/lib/jvm/java-6-sun/bin/java: No such file or directory
/usr/bin/hadoop: line 434: /usr/lib/jvm/java-6-sun/bin/java: No such file or directory

共有1个答案

锺玺
2023-03-14

添加java_home以指向hadoop-env.sh中的OpenJDK。在hadoop-env.sh中添加这一行:

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-amd64

注意:也更改.bashrc中的JAVA_HOME路径

更新I:

sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/java-1.7.0-openjdk-amd64/bin/java 1

sudo update-alternatives --config java

sudo update-alternatives --install "/usr/bin/javac" "javac" "/usr/lib/jvm/java-1.7.0-openjdk-amd64/bin/javac" 1

sudo update-alternatives --config javac
 类似资料:
  • 我正在尝试在Windows x64(8.1和Server 2012 R2)上安装Apache Hadoop 2.7.1,但目标失败: 在过去的日子里,我想我遵循了所有教程的步骤,比如HadoopOnWindows,或者这个。我做了所有的先决条件,但是当我谷歌时,我的问题的相关条件如下: 将路径设置为MSBuild。exe类似于:C:\Windows\Microsoft。NET\Framework6

  • 问题内容: 我在CentOS 6.6上安装了一个基本的hadoop集群,并想编写一些基本程序(浏览文件系统,删除/添加文件等),但是我仍在努力使最基本的应用程序正常工作。 当运行一些基本代码以将目录的内容列出到控制台时,出现以下错误: 我的pom.xml依赖项 代码: 调用fs.initialize()后将引发错误。我真的不确定这是什么问题。我是否缺少依赖关系?他们是错误的版本吗? 问题答案: 我

  • 我运行Hadoop集群,我有兴趣再安装一台仅使用DFSClient的机器。 这台机器(我们称之为机器X)将不是集群的一部分。 我得到本地根目录(不是HDFS根)。 我做错了什么?

  • 我正在尝试为Windows7安装和配置apache hadoop。 我正在遵循以下教程http://blog.sqltrainer.com/2012/01/installing-and-configuring-apache.html 我用作者在上面提到的文章中提到的#export评论了一下。我得到的错误如下 /usr/local/hadoop/libexec/../conf/hadoop-env.

  • 我一直在为Hadoop-1.1.1安装引用这个链接。 我所有的文件和权限都已根据此链接设置。但我犯了这个错误。请帮帮我。