当前位置: 首页 > 知识库问答 >
问题:

Hadoop:启动Datanode似乎没有响应

方璞
2023-03-14

我正试图在我的测试环境中部署一个基于3个节点的Hadoop集群

  • 1个名称节点(主节点:172.30.10.64)
  • 2个数据节点(slave1:172.30.10.72和slave2:172.30.10.62)

我在namenode中配置了主属性文件,在datananodes中配置了从属性文件。

主持人:

127.0.0.1       localhost
172.30.10.64    master
172.30.10.62    slave2
172.30.10.72    slave1

# The following lines are desirable for IPv6 capable hosts
::1     localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

hdfs站点。xml:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop_tmp/hdfs/namenode</value>
    </property>
</configuration>

核心站点。xml:

<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://master:9000</value>
    </property>
</configuration>

yarn-site.xml:

<configuration>
    <property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>master:8025</value>
    </property>
    <property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>master:8030</value>
    </property>
    <property>
        <name>yarn.resourcemanager.address</name>
        <value>master:8050</value>
    </property>
</configuration>

mapred-site.xml:

<configuration>
    <property> 
        <name>mapreduce.framework.name</name> 
        <value>yarn</value>
    </property> 
    <property>
        <name>mapreduce.jobhistory.address</name> 
        <value>master:10020</value> 
    </property>
</configuration>

我有奴隶文件:

slave1
slave2

主文件:

master

我只添加了与主文件不同的文件。

hdfs站点。xml:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop_tmp/hdfs/datanode</value>
    </property>
</configuration>

我从/usr/本地/hadoop/sbin启动:

/启动dfs。嘘

hduser@master:/usr/local/hadoop/sbin$ ./start-dfs.sh && ./start-yarn.sh 
18/03/14 10:45:50 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [master]
hduser@master's password: 
master: starting namenode, logging to /usr/local/hadoop-2.7.5/logs/hadoop-hduser-namenode-master.out
hduser@slave2's password: hduser@slave1's password: 
slave2: starting datanode, logging to /usr/local/hadoop-2.7.5/logs/hadoop-hduser-datanode-slave2.out

所以我从我的slave2打开日志文件:

2018-03-14 10:46:05,494 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/172.30.10.64:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECOND$
2018-03-14 10:46:06,495 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/172.30.10.64:9000. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECOND$
2018-03-14 10:46:07,496 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/172.30.10.64:9000. Already tried 2 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECOND$

我尝试了一些东西,但到目前为止没有效果:

  • 从主人到奴隶以及奴隶之间的“平”效果很好
  • 从主服务器到从服务器以及从服务器之间的ssh工作正常
  • hdfs namenode-在我的主节点中格式化
  • 重新创建Namenode和Datanaode文件夹
  • 在我的主VM中打开端口9000
  • 防火墙已禁用:sudo ufw status--

我有点不知所措,因为一切似乎都很好,我不知道为什么我不能克服困难启动我的hadoop集群。

共有1个答案

吴缪文
2023-03-14

我可能会找到答案:

我从主节点重新生成ssh密钥,然后复制到从节点。它现在似乎起作用了。

#Generate a ssh key for hduser
$ ssh-keygen -t rsa -P ""

#Authorize the key to enable password less ssh 
$ cat /home/hduser/.ssh/id_rsa.pub >> /home/hduser/.ssh/authorized_keys
$ chmod 600 authorized_keys

#Copy this key to slave1 to enable password less ssh and slave2 too
$ ssh-copy-id -i ~/.ssh/id_rsa.pub slave1
$ ssh-copy-id -i ~/.ssh/id_rsa.pub slave2
 类似资料:
  • 我已经在Ubuntu15.10VM上以单节点模式安装了Hadoop2.6.0。当我使用命令启动Hadoop时,它全部工作,但当我启动Jps命令时,我查看 31602 NameNode 32453 Jps 32169 NodeManager 32045 ResourceManager I报告以下日志文件 不推荐使用此脚本。而是使用start-dfs.sh和start-yarn.sh 在[localh

  • krish@krish-virtualbox:~$start-dfs.sh 14/10/20 13:16:16警告util.nativeCodeLoader:无法为您的平台加载本机Hadoop库...在适用的情况下使用内置Java类 正在[localhost]上启动名称代码 我只想知道在里面所有的东西是不是都很完美。我在清单中没有看到Datanode。

  • 我刚刚下载了Hadoop-0.20tar并提取了。我设置了JAVA_HOME和hadoop_home。我修改了core-site.xml、hdfs-site.xml和mapred-site.xml。 我开始服务。 我查了日志。上面写着

  • mapred-site.xml(在主服务器和从服务器中) hdfs-site.xml(母版中) hdfs-site.xml(在从机中) yarn-site.xml(在主服务器和从服务器中) 主节点中的jps: slaves中的jps 向你问好

  • 问题内容: 我尝试在Ubuntu 11.04和Java 6 sun上安装Hadoop。我正在使用hadoop 0.20.203 rc1构建。我在使用Java-6-sun的Ubuntu 11.04上反复遇到问题。当我尝试启动hadoop时,由于“无法访问存储”,datanode无法启动。 我曾尝试从Apache甚至cloudera的0.20分支中升级和降级到几个版本,还尝试再次删除并安装hadoop

  • 问题内容: Jenkins无法启动模拟器。这是jenkins的控制台输出: 如果我输入 要么 我懂了 我在ubuntu 12.04上运行jenkins。 问题答案: 错误“ SDL初始化失败,原因是:没有可用的视频设备”将表明模拟器不在图形环境中运行。 然而,你的日志显示,VNC服务器 是 正在启动。但是,也许到模拟器启动时,VNC服务器还没有完全启动。 您可以通过将仿真器启动延迟几秒钟来检查是否