当前位置: 首页 > 知识库问答 >
问题:

hadoop fs-mkdir连接异常失败

夹谷承安
2023-03-14

我一直试图在伪分布式模式中设置和运行Hadoop。但是当我键入

<configuration>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/grid/tmp</value>
  </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://h1:9000</value>
    </property>
</configuration>

mapred-site.xml

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>h1:9001</value>
    </property>

  <property>
    <name>mapred.map.tasks</name>
    <value>20</value>
  </property>
  <property>
    <name>mapred.reduce.tasks</name>
    <value>4</value>
  </property>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.jobtracker.http.address</name>
    <value>h1:50030</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>h1:10020</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>h1:19888</value>
  </property>

</configuration>

hdfs-site.xml

<configuration>

  <property>
    <name>dfs.http.address</name>
    <value>h1:50070</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address</name>
    <value>h1:9001</value>
  </property>
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>h1:50090</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/home/grid/data</value>
  </property>
    <property>
        <name>dfs.replication</name>
        <value>2</value>
    </property>
</configuration>

/etc/hosts

127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.13 h1
192.168.1.14 h2
192.168.1.15 h3
1702 ResourceManager
1374 DataNode
1802 NodeManager
2331 Jps
1276 NameNode
1558 SecondaryNameNode
[grid@h1 hadoop-2.6.0]$ bin/hadoop fs -mkdir input
15/05/13 16:37:57 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
mkdir: Call From h1/192.168.1.13 to h1:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
2015-05-12 11:26:20,329 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting DataNode
STARTUP_MSG:   host = h1/192.168.1.13
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 2.6.0
2015-05-08 16:06:32,561 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = h1/192.168.1.13
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 2.6.0
[grid@h1 ~]$ netstat -tnl |grep 9000
[grid@h1 ~]$ netstat -tnl |grep 9001
tcp        0      0 192.168.1.13:9001           0.0.0.0:*                   LISTEN     

共有1个答案

呼延明朗
2023-03-14

请启动dfs和纱线。

[Hadoop@Hadooplab sbin]$./start-dfs.sh

[Hadoop@Hadooplab sbin]$./start-yarn.sh

现在尝试使用“bin/hadoop fs-mkdir输入”

当您在VM中安装hadoop然后关闭它时,通常会出现问题。当您关闭VM时,dfs和yarn也会停止。所以每次重启VM时都需要启动dfs和yarn。

 类似资料:
  • 以下错误在连接 sqlserver(java) 时抛出。我不知道这个问题的根本原因。 如果有人遇到这个问题,请让我们知道,如何解决这个问题?

  • 这是我第一次使用RMI,基本上我设法在我的PC本地运行下面的RMI示例,但不是通过两个独立的Linux机器。 服务器界面: 服务器: 客户: 客户端接口与服务器接口相同 这是我为了运行rmi示例所做的: 1) 在服务器端,我创建了存根 2) 跑马场 3)运行服务器 4)我将存根从服务器端复制到客户端到同一个包中 5) 运行客户端 运行客户端后,我收到以下错误消息: 线程“main”java中出现异

  • 我得到了这个错误 致命错误:未捕获的异常'phpmail erExc0019',消息'SMTP连接()失败。https://github.com/PHPMailer/PHPMailer/wiki/Troubleshooting'在C:\xampp\htdocs\muhasibb\eppper\PHPMailer-master\class.phpmailer.php:1465堆栈跟踪:#0 C:\x

  • 当我在配置单元中运行以下查询时: 这怎么解决呢? 谢谢

  • 代码片段如下所示: 如果有人有决议,请帮忙?

  • 我有以下配置 java版本 OpenJDK版本"1.8.0_40-内部" OpenJDK运行时环境(build 1.8.0_40-internal-b27) OpenJDK 64位服务器虚拟机(构建25.40-b25,混合模式) ubuntu 14.04 clj网络驱动程序 我在做测试 并获得以下异常: