当前位置: 首页 > 知识库问答 >
问题:

配置多个节点后hdfs dfs ls不工作

沈英勋
2023-03-14

我开始学习在线教程,在我的单个本地VM上配置多个NDOE。以下是主节点上的主机:

127.0.0.1   localhost
192.168.96.132  hadoop
192.168.96.135  hadoop1
192.168.96.136  hadoop2

ssh:ALL:allow
sshd:ALL:allow

下面是用于工作的命令:hdfs dfs-ls

现在我看到下面的错误消息:

ls: Call From hadoop/192.168.96.132 to hadoop:9000 failed on connection exception: 
java.net.ConnectException: Connection refused; 
For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

我的配置有什么问题?我应该在哪里检查和纠正它?

非常感谢。

共有1个答案

蒋飞捷
2023-03-14
First try to 
ping hadoop,
ping hadoop1 and 
ping hadoop2.
Ex: ping hadoop 
Then just try to connect via ssh
The syntax is 
ssh username@hadoop
ssh username@hadoop1
ssh username@hadoop2
Then see the results to find out whether the systems are connecting or not.
 类似资料:
  • 我正在尝试使用Spring Security,我有一个用例,我想要保护不同的登录页面和不同的URL集。 下面是我的配置:

  • 我需要在不同的机器上配置一个Kafka集群,但它不起作用,当我启动生产者和消费者时,将显示以下错误: 你能帮帮我吗。

  • 前言 为了配置kubernetes中的traefik ingress的高可用,对于kubernetes集群以外只暴露一个访问入口,需要使用keepalived排除单点问题。本文参考了kube-keepalived-vip,但并没有使用容器方式安装,而是直接在node节点上安装。 定义 首先解释下什么叫边缘节点(Edge Node),所谓的边缘节点即集群内部用来向集群外暴露服务能力的节点,集群外部的

  • 我在跟踪http://jayatiatblogs.blogspot.com/2011/11/storm-installation.html 我的主节点10.0.0.185。我的从节点10.0.0.79,10.0.0.124 下面是我的动物园。我的从属节点的cfg: 下面是我的Storm。我的从属节点的yaml: 下面是暴风雨。我的主节点的yaml: 我在所有从属节点中启动zookeeper,然后在

  • 我尝试了以下命令- ,它给出了- 此CLI仅用于开发,不用于生产 https://docs.confluent.io/current/CLI/index.html 使用confluent_current:/tmp/confluent.w1s9b10m启动zookeeper zookeeper是[UP]启动kafka kafka是[UP] 启动schema-registry schema-regis

  • 我正在尝试从Java Web服务中的弹性搜索进行搜索,下面是我现在的使用方法: 我在Java程序中做了什么(防火墙、库版本、调用API的方法等)错了吗?我现在的Java版本是1.8.0.121,Elastic Search和Transport Client的版本都是5.2。谢了!