同时发布Hadoop多节点设置。一旦我开始我的hdfs恶魔在主(宾/start-dfs.sh)
我确实在主人的日志下面找到了
starting namenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-namenode-localhost.localdomain.out
slave: Warning: $HADOOP_HOME is deprecated.
slave:
slave: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out
master: Warning: $HADOOP_HOME is deprecated.
master:
master: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out
master: Warning: $HADOOP_HOME is deprecated.
master:
master: starting secondarynamenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-secondarynamenode-localhost.localdomain.out
我确实在奴隶号上找到了下面的日志@
hadoop hduser数据节点本地主机。本地域。日志文件
有人能告诉我,设置有什么问题吗。
2013-07-24 12:10:59,373 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/192.168.0.1:54310. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-07-24 12:11:00,374 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/192.168.0.1:54310. Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-07-24 12:11:00,377 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to master/192.168.0.1:54310 failed on local exception: java.net.NoRouteToHostException: No route to host
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1144)
at org.apache.hadoop.ipc.Client.call(Client.java:1112)
确保NameNode运行正常。如果它已经在运行,请查看连接中是否存在任何问题。您的DataNode无法与NameNode对话。确保已将机器的IP和主机名添加到从属设备的/etc/hosts文件中。请尝试将telnet连接到192.168.0.1:54310,看看您是否能够连接。
向我们展示NN日志会很有帮助。
编辑:
看看维基对这个问题有什么看法:当网络上的一台机器不知道如何向指定的机器发送TCP数据包时,你会得到一个TCP无路由主机错误——通常包裹在JavaIOExc0019中。
一些可能的原因(不是独家列表):
快速解决方案:重新启动JVM。
这些都是网络配置/路由器问题。由于这是您的网络,只有您才能发现并跟踪问题。
我在我的ubuntu 12.04中安装了Hadoop 2.6.0。当我启动/停止dfs-sh守护程序时,它显示以下错误。请帮助我克服这个问题 无需停止namenode本地主机:停止datanode停止次要namenodes[0.0.0.0] 0.0.0.0:停止次要namenode 2004年5月16日10:40:03警告util。NativeCodeLoader:无法为您的平台加载本机hadoo
我正试图在hadoop中设置多节点集群,如何将0个数据阳极作为活动数据阳极,而我的hdfs显示了0个字节的分配 但是nodemanager后台进程正在datanodes上运行 `
根据如何在Ubuntu中安装Apache Hadoop2.6.0(多节点/集群设置),我将Hadoop2.6.0设置为1个主服务器和2个从服务器。毕竟,我在master和slaves上检查了jps,看起来都很好:master上的NameNode、SecondaryNameNode、ResourceManager;和DataNode,从服务器上的NodeManager。但是当我浏览到Hadoopma
每当我启动Hadoop集群时,系统都会询问密码。 我已经在.ssh文件夹中添加了密钥。 开始-dfs.sh 19/01/22 20:38:56警告util.nativeCodeLoader:无法为您的平台加载本机Hadoop库...使用内置Java类(如果适用)在[localhost]xxxx@localhost's password上启动namenode:localhost:启动namenode
编辑:根据Jim Rush的建议,我现在使用rc.local而不是init.d direclty来运行永远启动启动。 你知道为什么这不起作用吗?我在覆盆子皮B+上运行覆盆子。我已经运行了/etc/init.d kuuyi start和forever kicks并启动了该应用程序。只是启动机器后就不会发生了。 在这方面的任何帮助都是非常感谢的,我在这方面就像乳制品日后的旧奶酪布一样筋疲力尽。
问题内容: 我的问题在这里听起来可能是多余的,但先前问题的解决方案都是临时的。我尝试过的人很少,但还没有运气。 最终,我正在使用hadoop-1.2.1(在ubuntu 14上),最初我有单节点设置,并且在那里成功运行了WordCount程序。然后根据本教程向它添加了另一个节点。它成功启动,没有任何错误,但是现在,当我运行相同的WordCount程序时,它处于还原阶段。我查看了任务跟踪器日志,如下