当前位置: 首页 > 知识库问答 >
问题:

在hadoop多节点群集上启动HDFS守护程序时出错

景阳平
2023-03-14

同时发布Hadoop多节点设置。一旦我开始我的hdfs恶魔在主(宾/start-dfs.sh)

我确实在主人的日志下面找到了

starting namenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-namenode-localhost.localdomain.out
slave: Warning: $HADOOP_HOME is deprecated.
slave:
slave: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out
master: Warning: $HADOOP_HOME is deprecated.
master:
master: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out
master: Warning: $HADOOP_HOME is deprecated.
master:
master: starting secondarynamenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-secondarynamenode-localhost.localdomain.out

我确实在奴隶号上找到了下面的日志@

hadoop hduser数据节点本地主机。本地域。日志文件

有人能告诉我,设置有什么问题吗。

2013-07-24 12:10:59,373 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/192.168.0.1:54310. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-07-24 12:11:00,374 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/192.168.0.1:54310. Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-07-24 12:11:00,377 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to master/192.168.0.1:54310 failed on local exception: java.net.NoRouteToHostException: No route to host
        at org.apache.hadoop.ipc.Client.wrapException(Client.java:1144)
        at org.apache.hadoop.ipc.Client.call(Client.java:1112)

共有1个答案

孟浩然
2023-03-14

确保NameNode运行正常。如果它已经在运行,请查看连接中是否存在任何问题。您的DataNode无法与NameNode对话。确保已将机器的IP和主机名添加到从属设备的/etc/hosts文件中。请尝试将telnet连接到192.168.0.1:54310,看看您是否能够连接。

向我们展示NN日志会很有帮助。

编辑:

看看维基对这个问题有什么看法:当网络上的一台机器不知道如何向指定的机器发送TCP数据包时,你会得到一个TCP无路由主机错误——通常包裹在JavaIOExc0019中。

一些可能的原因(不是独家列表):

  • 配置文件中远程计算机的主机名错误
  • 客户端的主机表//etc/hosts具有无效的目标主机IP地址
  • DNS服务器的主机表具有无效的目标主机IP地址
  • 客户端的路由表(在Linux中为iptables)错误
  • DHCP服务器正在发布错误的路由信息
  • 客户端和服务器位于不同的子网上,未设置为相互通信。这可能是个意外,也可能是故意锁定Hadoop集群
  • 这些机器正在尝试使用IPv6进行通信。Hadoop目前不支持IPv6
  • 主机的IP地址已更改,但长期存在的JVM正在缓存旧值。这是JVM的一个已知问题(有关详细信息和解决方案,请搜索“java负DNS缓存”)

快速解决方案:重新启动JVM。

这些都是网络配置/路由器问题。由于这是您的网络,只有您才能发现并跟踪问题。

 类似资料:
  • 我在我的ubuntu 12.04中安装了Hadoop 2.6.0。当我启动/停止dfs-sh守护程序时,它显示以下错误。请帮助我克服这个问题 无需停止namenode本地主机:停止datanode停止次要namenodes[0.0.0.0] 0.0.0.0:停止次要namenode 2004年5月16日10:40:03警告util。NativeCodeLoader:无法为您的平台加载本机hadoo

  • 我正试图在hadoop中设置多节点集群,如何将0个数据阳极作为活动数据阳极,而我的hdfs显示了0个字节的分配 但是nodemanager后台进程正在datanodes上运行 `

  • 根据如何在Ubuntu中安装Apache Hadoop2.6.0(多节点/集群设置),我将Hadoop2.6.0设置为1个主服务器和2个从服务器。毕竟,我在master和slaves上检查了jps,看起来都很好:master上的NameNode、SecondaryNameNode、ResourceManager;和DataNode,从服务器上的NodeManager。但是当我浏览到Hadoopma

  • 每当我启动Hadoop集群时,系统都会询问密码。 我已经在.ssh文件夹中添加了密钥。 开始-dfs.sh 19/01/22 20:38:56警告util.nativeCodeLoader:无法为您的平台加载本机Hadoop库...使用内置Java类(如果适用)在[localhost]xxxx@localhost's password上启动namenode:localhost:启动namenode

  • 编辑:根据Jim Rush的建议,我现在使用rc.local而不是init.d direclty来运行永远启动启动。 你知道为什么这不起作用吗?我在覆盆子皮B+上运行覆盆子。我已经运行了/etc/init.d kuuyi start和forever kicks并启动了该应用程序。只是启动机器后就不会发生了。 在这方面的任何帮助都是非常感谢的,我在这方面就像乳制品日后的旧奶酪布一样筋疲力尽。

  • 问题内容: 我的问题在这里听起来可能是多余的,但先前问题的解决方案都是临时的。我尝试过的人很少,但还没有运气。 最终,我正在使用hadoop-1.2.1(在ubuntu 14上),最初我有单节点设置,并且在那里成功运行了WordCount程序。然后根据本教程向它添加了另一个节点。它成功启动,没有任何错误,但是现在,当我运行相同的WordCount程序时,它处于还原阶段。我查看了任务跟踪器日志,如下