当前位置: 首页 > 知识库问答 >
问题:

Namenode无法启动

钱安和
2023-03-14

我正在尝试将HDFS从1.2.1升级到2.6版本。但是,每当我运行start-dfs.sh-upgrade命令时,我都会得到以下错误:

hduser@cluster1-nn:/usr/local/hadoop2/hadoop-2.6.0/etc_bkp/hadoop$$hadoop_new_home/sbin/start-dfs.sh-upgrade

15/05/17 12:45:58警告util.nativeCodeLoader:无法为您的平台加载本机Hadoop库...在适用的情况下使用内置Java类

nn:启动数据阳极,登录到/var/hadoop/logs/hadoop-hduser-datanode-cluster1-nn.out DN1:启动数据阳极,登录到/var/hadoop/logs/hadoop-hduser-datanode-cluster1-dn1.out DN2:启动数据阳极,登录到/var/hadoop/logs/hadoop-hduser-datanode-cluster1-dn2.out

正在启动辅助名称编号[0.0.0.0]

错误:请指定--hosts或--hostnames选项之一,而不是同时指定两者。

如果你们中的专家遇到了这样的错误,请告诉我。

共有1个答案

司徒高寒
2023-03-14

我在新安装了Hadoop2.7.1的Arch Linux上也遇到了同样的问题。我不确定我的情况是否和你的一样,但我的经验应该会有帮助。我只是注释掉/etc/profile.d/hadoop.sh中的hadoop_slaves=/etc/hadoop/slaves行,然后重新登录。访问HDFS和运行流作业对我都有效。

原因是特定于ARCH的脚本/etc/profile.d/hadoop.sh声明了$hadoop_slaves环境变量。在start-dfs.sh中,使用--hostnames参数调用hadoop-daemons.sh。这会混淆libexec/hadoop-config.sh

您可能希望键入echo$hadoop_slaves作为hadoop用户。如果有非空输出,请检查您的.bashrc和/或其他shell启动脚本。希望能有所帮助:)

 类似资料:
  • 我在Windows7中配置Hadoop是从教程中设置单个节点集群开始的。当运行来格式化namenode时,它会抛出类似的异常:当自动强制windows namenode时,我可以打开地址为http://localhost:50070的namenode GUI。 yarn-site.xml

  • 经过一番努力,我最终成功地在伪分布式节点中使用了hadoop,和工作正常(和) 昨天,我尝试用以下方法重新启动、等: 给出以下输出: Namenode似乎不愿意再启动了...几秒钟后Jobtracker就死了。 mapred-site.xml:

  • 以下是相关信息 /etc/hadoop/conf/hdfs-site.xml /etc/hadoop/conf/core-site.xml sudo ls-lr/var/lib/hadoop-hdfs/cache

  • 我刚刚下载了Hadoop-0.20tar并提取了。我设置了JAVA_HOME和hadoop_home。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml。 我开始服务。 我查了日志。上面写着

  • 由于我正处于Hadoop的学习阶段,我遇到了Hadoop单集群设置的问题。我使用的是Hadoop2.9.0和Java8。我已经完成了设置,如下所示 现在hdfs-site.xml中dfs.replication的值为1。现在我正在做start-all.sh如果我检查状态- 现在我有stop-all.sh和如果我将hdfs-site.xml中的dfs.replication的值更改为0(有些人提到这

  • 在我的shell中,我这样做了,但得到的结果如下所示。 24king@24king-pc/usr/local/hadoop $sh-x bin/hdfs namenode-format null