当前位置: 首页 > 知识库问答 >
问题:

无法在Hadoop中启动namenode?

景远航
2023-03-14

我在Windows7中配置Hadoop是从教程中设置单个节点集群开始的。当运行hdfs namenode-format来格式化namenode时,它会抛出类似的异常:当start-all.cmd自动强制windows namenode时,我可以打开地址为http://localhost:50070的namenode GUI。

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>   
<configuration>
   <property>
       <name>dfs.replication</name>
       <value>1</value>
   </property>
   <property>
       <name>dfs.namenode.name.dir</name>
       <value>C:/hadoop/data/namenode</value>
   </property>
   <property>
       <name>dfs.datanode.data.dir</name>
       <value>C:/hadoop/data/datanode</value>
   </property>
</configuration>
<configuration>
    <property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
</configuration>

yarn-site.xml

<configuration>
   <property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
   </property>
   <property>
       <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
       <value>org.apache.hadoop.mapred.ShuffleHandler</value>
   </property>
</configuration>

共有1个答案

谭奕
2023-03-14

将以下属性更改为:

<property>
   <name>dfs.namenode.name.dir</name>
   <value>C:/hadoop/data/namenode</value>
</property>
<property>
   <name>dfs.datanode.data.dir</name>
   <value>C:/hadoop/data/datanode</value>
</property>

致:

<property>
   <name>dfs.namenode.name.dir</name>
   <value>/hadoop/data/namenode</value>
</property>
<property>
   <name>dfs.datanode.data.dir</name>
   <value>/hadoop/data/datanode</value>
</property>
 类似资料:
  • 问题内容: 我尝试在Ubuntu 11.04和Java 6 sun上安装Hadoop。我正在使用hadoop 0.20.203 rc1构建。我在使用Java-6-sun的Ubuntu 11.04上反复遇到问题。当我尝试启动hadoop时,由于“无法访问存储”,datanode无法启动。 我曾尝试从Apache甚至cloudera的0.20分支中升级和降级到几个版本,还尝试再次删除并安装hadoop

  • 我最近以单集群模式将hadoop 3.1.1安装到我的计算机上。之后,以下命令对hdfs-site.xml、yarn-site.xml、core-site.xml、mapred-site.xml和hadoop-env.sh进行了所有配置,没有任何错误 *start-all.sh 下面是yarn-site.xml的代码

  • localhost:启动namenode,登录到/usr/local/hadoop/logs/hadoop-wenruo-namenode-linux.out localhost://usr/local/hadoop/bin/hdfs:line 304:/usr/local/hadoop/usr/lib/jvm/java-8-oracle/bin/java:没有这样的文件或目录 我的JAVA_HO

  • 我正在尝试在服务器上安装Hadoop 2.2.0群集。现在所有的服务器都是64位的,我下载了Hadoop 2.2.0,所有的配置文件都已经设置好了。当我跑步的时候/启动dfs。sh,我得到以下错误: 除了64位之外,还有其他错误吗?我已经在没有密码的情况下完成了namenode和datanodes之间的登录,其他错误意味着什么?

  • 错误是: 错误:(50,17)错误:没有为startActivities(Intent)方法Activity找到合适的方法。startActivities(Intent[],Bundle)不适用(实际和正式的参数列表长度不同)方法Activity.startActivities(Intent[])方法上下文twrapper.startactivities(Intent[],Bundle)不适用(实

  • 问题内容: 升级后去运行jenkins,并获得以下信息: 就是这样…詹金的日志中什么也没有显示…所以很难说很难调试。(它还没有运行,或者类似的东西)。 我应该在其他地方查看另一个日志会有所帮助吗?(我假设对这个问题的回答将是反复的,所以希望有人可以在调试它的道路上开始我的工作) 问题答案: 因此,知道这是一个启动前错误,使我可以进行更深入的研究。 进一步的挖掘使我发现文件中的确切行是指向 看着这个