我开始学习在线教程,在我的单个本地VM上配置多个NDOE。以下是主节点上的主机:
127.0.0.1 localhost
192.168.96.132 hadoop
192.168.96.135 hadoop1
192.168.96.136 hadoop2
ssh:ALL:allow
sshd:ALL:allow
下面是用于工作的命令:hdfs dfs-ls
现在我看到下面的错误消息:
ls: Call From hadoop/192.168.96.132 to hadoop:9000 failed on connection exception:
java.net.ConnectException: Connection refused;
For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
我的配置有什么问题?我应该在哪里检查和纠正它?
非常感谢。
First try to ping hadoop, ping hadoop1 and ping hadoop2. Ex: ping hadoop Then just try to connect via ssh The syntax is ssh username@hadoop ssh username@hadoop1 ssh username@hadoop2 Then see the results to find out whether the systems are connecting or not.
我正在尝试使用Spring Security,我有一个用例,我想要保护不同的登录页面和不同的URL集。 下面是我的配置:
我需要在不同的机器上配置一个Kafka集群,但它不起作用,当我启动生产者和消费者时,将显示以下错误: 你能帮帮我吗。
前言 为了配置kubernetes中的traefik ingress的高可用,对于kubernetes集群以外只暴露一个访问入口,需要使用keepalived排除单点问题。本文参考了kube-keepalived-vip,但并没有使用容器方式安装,而是直接在node节点上安装。 定义 首先解释下什么叫边缘节点(Edge Node),所谓的边缘节点即集群内部用来向集群外暴露服务能力的节点,集群外部的
我在跟踪http://jayatiatblogs.blogspot.com/2011/11/storm-installation.html 我的主节点10.0.0.185。我的从节点10.0.0.79,10.0.0.124 下面是我的动物园。我的从属节点的cfg: 下面是我的Storm。我的从属节点的yaml: 下面是暴风雨。我的主节点的yaml: 我在所有从属节点中启动zookeeper,然后在
我尝试了以下命令- ,它给出了- 此CLI仅用于开发,不用于生产 https://docs.confluent.io/current/CLI/index.html 使用confluent_current:/tmp/confluent.w1s9b10m启动zookeeper zookeeper是[UP]启动kafka kafka是[UP] 启动schema-registry schema-regis
我正在尝试从Java Web服务中的弹性搜索进行搜索,下面是我现在的使用方法: 我在Java程序中做了什么(防火墙、库版本、调用API的方法等)错了吗?我现在的Java版本是1.8.0.121,Elastic Search和Transport Client的版本都是5.2。谢了!