当前位置: 首页 > 知识库问答 >
问题:

NameNode未在伪分布式模式下启动

颜昕
2023-03-14

我无法在hadoop fs-ls/命令上查看HDFS中的文件,我想这是因为name节点没有运行。我尝试了格式化namenode,并将core-site.xml中的端口更改为不同的值,但我的JPS没有列出namenode。

下面是这些文件:1)core-site.xml

               <configuration>
                       <property>
                       <name>hadoop.tmp.dir</name>
                       <value>/home/hduser/tmp</value>
                      <description>A base for other temporary directories.</description>
                        </property>
                         <property>
                         <name>fs.default.name</name>
                          <value>hdfs://localhost:50000</value>
                           <description>The name of the default file system. A URI whose
                          scheme and authority determine the FileSystem implementation. The
                          uri’s scheme determines the config property (fs.SCHEME.impl) naming
                           the FileSystem implementation class. The uri’s authority is used to
                                 determine the host, port, etc. for a filesystem.</description>
    </property>
    </configuration>
    <configuration>
                          <property>
                           <name>dfs.replication</name>
                              <value>1</value>
                              <description>Default block replication.
    The actual number of replications can be specified when the file is created.
    The default is used if replication is not specified in create time.
    </description>
    </property>
    <property>
         <name>dfs.name.dir</name>
        <value>/home/hduser/hadoop-1.2.1/data</value>
    </property>
    </configuration>

3)mapred-site.xml

                      <configuration>
                   <property>
         <name>mapred.job.tracker</name>
                           <value>localhost:54311</value>
             <description>The host and port that the MapReduce job tracker runs
                                 at. If “local”, then jobs are run in-process as a single map
                                 and reduce task.
                               </description>
                           </property>
                           </configuration>

JPS输出为:

21043作业跟踪器

20839数据阳极

共有1个答案

孙池暝
2023-03-14

如果再次发生相同的问题,则通过rm-rf tmp/从tmp文件夹中删除所有内容,然后格式化namenode,它就应该启动。或者您也可以尝试通过bin/hdfs namenode-recover恢复名称代码

 类似资料:
  • 我很感激你事先的帮助。 我使用root用户凭据在伪分布式模式下设置了Hadoop。我想为多个用户(比如hadoop1、hadoop2等)提供访问权限,以便能够在这个集群上提交和运行MapReduce作业。我们怎么做? 到目前为止我做了什么? 我得到了下面的错误: 为了克服此错误,我授予组“hadoop”对文件夹hdfstmp的rwx权限。此文件夹上的权限类似于drwxrwxr-x。 使用hadoo

  • 我正在使用kubernetes中的JDBC接收器连接器构建Kafka-连接应用程序。我尝试了独立模式,它正在工作。我想转移到分布式模式。我可以通过运行下面的yaml文件成功构建两个pod(kafka连接器): bin/connect-distributed.sh配置/worker.properties 并在每个 pod 内部创建了一个接收器连接器,任务.max=1,两个连接器侦听相同的主题。原来他

  • 我已经在Ubuntu上安装了hadoop 1.2.0。所有的服务namenode,sec namenode,datanode,jobtracker,tasktracker运行良好。 然后我安装了hbase-0-94.8,我希望配置也可以。但是HMaster无法在端口9000上启动。它实际上开始,然后下降。 >2014-05-14 09:28:37,015 INFO org.apache.hadoo

  • 我想使用 Confluent 的复制器将数据从一个系统复制到另一个系统。我正在使用两个Ubuntu 18.04系统,其中一个充当源,另一个充当目的地。 我尝试在分布式模式下运行kafka connect replicator,更改了以下配置: < li >在confluent/etc/Kafka/server . properties中,我做了以下更改 源 目的地 然后,我在源系统中创建了主题,并

  • 我正在对JMeter的一些实例进行性能测试,在分析JMeter报告时出现了一些问题。 为了解释上下文,我使用了3个JMeter服务器,每个服务器启动200个线程,测试在非GUI模式下运行1分钟。在执行过程中,我可以清楚地看到我有600个活动线程(每个服务器200个)。 最后,我的CSV文件显示了来自3个服务器的所有示例(我可以通过在jmeter.properties文件上启用“hostname”来

  • Hadoop版本=2.4.1 hbase版本=0.98.6 我已经在下面的conf上启动并顺利运行了hadoop: 107.108.86.119-hadoop namenode,secondarynamenode 107.109.155.100-datanode1 107.109.155.102-datanode2 现在我按以下方式安装hbase:- 107.108.86.114:-hmaster