当前位置: 首页 > 知识库问答 >
问题:

Hadoop start-all.sh错误

尹昀
2023-03-14

基本上,当我使用./start-all.sh命令启动hadoop时,会遇到一些问题。

  WARNING: Attempting to start all Apache Hadoop daemons as snagaraj in 10 
  seconds.
  WARNING: This is not a recommended production deployment configuration.
  WARNING: Use CTRL-C to abort.
  Starting namenodes on [localhost]
  pdsh@greg: localhost: ssh exited with exit code 1
  Starting datanodes
  Starting secondary namenodes [greg.bcmdc.bcm.edu]
  Starting resourcemanager
  Starting nodemanagers
  org.apache.hadoop.ipc.RemoteException(java.io.IOException): File 
  /user/data/...._COPYING_ could only be written to 0 of the 
  1 minReplication nodes. There are 0 datanode(s) running and 0 node(s) 
  are excluded in this operation.

我尝试过用hdfs namenode-format重新格式化namenode,但这没有帮助。

我的xml文件上的配置似乎是正确的,我的JAVA_HOME路径也是正确的。我很乐意根据需要提供信息。

共有1个答案

林修真
2023-03-14

执行:masternode或namenode服务器中的ssh localhost。

如果它能够连接,那么您的上述问题将得到解决。

 类似资料:
  • 如果是使用 Mac 操作系统运行 start-all.sh 发生下面错误时: % sh start-all.sh starting org.apache.spark.deploy.master.Master, logging to ... localhost: ssh: connect to host localhost port 22: Connection refused 你需要在你的电脑上

  • 如果是使用 Mac 操作系统运行 start-all.sh 发生下面错误时: % sh start-all.sh starting org.apache.spark.deploy.master.Master, logging to ... localhost: ssh: connect to host localhost port 22: Connection refused 你需要在你的电脑上

  • 我一直在为Hadoop-1.1.1安装引用这个链接。 我所有的文件和权限都已根据此链接设置。但我犯了这个错误。请帮帮我。

  • 我正在尝试在我的笔记本电脑上安装Hadoop。我遵循了以下指南:https://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ 使用start-all.sh启动hadoop进程会遇到问题 Hadoop权限问题 编辑:在我尝试了所有的选项之后,似乎唯一起作用的是。现在的问题是name

  • 附注:我试着把hadoop作为一个单节点安装,但不起作用,所以我试着把它删除,把所有的东西都作为一个双节点设置来重做,所以我不得不重新格式化NameNode。我不知道这是否会影响到这一点。 编辑1:我修正了start-all.sh命令不工作,因为我修正了.bashrc中的错误。但是,当运行start-all.sh或start-dfs.sh等时,我会收到这些错误消息。 编辑2:修正了上面的错误,我更

  • 我正在尝试搜索亚马逊的产品广告,并使用botlenose来帮助我做到这一点。但是,我刚刚收到HTTP错误400。 其他一些重要信息: 我来自巴西,我的标签也来自亚马逊。这是个问题吗? 我确实检查了我的钥匙、秘密和标签,一切正常。我确实在StackOverflow上查看了其他一些问题,但对我来说没有任何效果。 当然,出于安全原因,我更改了密钥。 Traceback(最近一次调用最后一次):File"