当前位置: 首页 > 知识库问答 >
问题:

Datanode错误:NameSystem.GetDataNode

周伟泽
2023-03-14

主服务器-XXX-141/142/143的日志(提取)是从服务器“”“”“”“”“”“”“”“”“”“”“”“”“”“行134:2016-01-23 17:36:19,432 ERROR org.apache.hadoop.hdfs.statechange:block*namesystem.getDataAnode:数据节点DataNode注册(xxx.xx.xx.143:50010,DataNodeUUID=6826238D-9213-4B19-A6EB-13115E3BEA8D,InfoPort=50075,InfoSecurePort=0,IPCPort=50020,预计节点172.31.22.141:50010将为该存储服务。

行135:2016-01-23 17:36:19,457 ERROR org.apache.hadoop.hdfs.statechange:block*namesystem.getDataAnode:数据节点DatanodeRegistration(xxx.xx.xx.142:50010,DataNodeUUID=6826238D-9213-4B19-A6EB-13115E3BEA8D,InfoPort=50075,InfoSecurePort=0,IPCPort=50020,StorageInfo=LV=-56;CID=CID-57295BBD-E78E-4265-99F7-FDACCCCB33A;预计节点172.31.22.141:50010将为该存储服务。

行159:2016-01-23 17:36:20,988 ERROR org.apache.hadoop.hdfs.statechange:block*namesystem.getDataAnode:数据节点DatanodeRegistration(xxx.xx.xx.141:50010,DataNodeUUID=6826238D-9213-4B19-A6EB-13115E3BEA8D,InfoPort=50075,InfoSecurePort=0,IPCPort=50020,StorageInfo=LV=-56;CID=CID-57295BBD-E78E-4265-99F7-FDAccCBCB33A预期节点xxx.xx.xx.143:50010将为该存储服务。

从SLAVE2服务器日志“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“”“

at org.apache.hadoop.ipc.Client.call(Client.java:1476)
at org.apache.hadoop.ipc.Client.call(Client.java:1407)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229)
at com.sun.proxy.$Proxy13.blockReport(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.DatanodeProtocolClientSideTranslatorPB.blockReport(DatanodeProtocolClientSideTranslatorPB.java:199)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.blockReport(BPServiceActor.java:463)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.offerService(BPServiceActor.java:688)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:823)
at java.lang.Thread.run(Thread.java:745)

2016-01-23 17:36:18,610 WARN org.apache.hadoop.hdfs.server.Datanode.Datanode:结束块池BP-1050309752-mast.xx.xx.169-1453113991010(Datanode Uuid 6826238D-9213-4B19-A6EB-13115E3BEA8D)的块池服务到master/mast.xx.xx.169:9000 2016-01-23 17:36:18,611 INFO org.apache.hadoop.hdfs.server.Datanode.Datanode:已删除块池xx.xx.xx.142

共有1个答案

长孙阳泽
2023-03-14

看起来你有三个奴隶

172.31.22.141:50010
172.31.22.142:50010
172.31.22.143:50010

并且您从第一个从机的克隆中创建了其中的两个,该从机已经包含在集群中。这两个克隆现在已经有了DFS的副本,并且使用了与第一个从机相同的存储ID。名称服务器只需要一个具有相同ID的从机。它试图通过日志来告诉你这一点:

[...] is attempting to report storage ID [...].
Node [...]:50010 is expected to serve this storage.

您可以尝试删除其中两个从机上的dfs目录,然后重新启动它们。

rm -rf /tmp/hadoop-hadoop/dfs/
hdfs dfs -setrep -w 4 -R /user/somedir
 类似资料:
  • 本文向大家介绍3个datanode中有一个datanode出现错误会怎样?相关面试题,主要包含被问及3个datanode中有一个datanode出现错误会怎样?时的应答技巧和注意事项,需要的朋友参考一下 解答: 这个datanode的数据会在其他的datanode上重新做备份。

  • 请告诉我为什么我会出现这个错误?提前道谢。

  • 使用运行两个容器并执行netcat服务器: 在一个容器中,而在另一个容器中是netcat客户端: 使第一个容器正确打印: 数据阳极是这样开始的: 这两个节点连接良好,当查询时(使用),连接情况报告为: 但是,运行的输出: 但是,当datanode启动时,namenode报告datanode的IP地址为: 并且使用捕获两者之间的通信量(运行在连接到主机网络的Docker容器中-使用)似乎显示发生了错

  • 我在windows系统中安装了Hadoop。只有namenode和资源管理器服务正在运行。使用jps cmd时,其余服务(如DataNode、SecondaryNameNode和NodeManager守护进程)不可见。在DataNode日志中抛出以下错误; 错误: 有人能给我一个解决办法吗?

  • 我们重新启动集群上的dastanodes 我们在ambari集群中有15台数据节点机器,而每个数据节点机器都有128G RAM 版本- ( HDP - 2.6.4和安巴里版本2.6.1) 但是,由于以下错误,datanode无法启动 这很奇怪dtnode_heapsize因为 8G ( 数据节点最大 Java 堆大小 = 8G ),从日志中我们也可以看到 所以我们不明白这是怎么回事 dose-与D

  • krish@krish-virtualbox:~$start-dfs.sh 14/10/20 13:16:16警告util.nativeCodeLoader:无法为您的平台加载本机Hadoop库...在适用的情况下使用内置Java类 正在[localhost]上启动名称代码 我只想知道在里面所有的东西是不是都很完美。我在清单中没有看到Datanode。