root@hadoop:/opt/hadoop-2.7.3# sbin/start-dfs.sh
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
Starting namenodes on []
localhost: starting namenode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-namenode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
localhost: starting datanode, logging to /opt/hadoop-2.7.3/logs/hadoop-root-datanode-hadoop.out
localhost: nice: ‘$HADOOP_HOME/bin/hdfs’: No such file or directory
Error: Could not find or load main class org.apache.hadoop.hdfs.tools.GetConf
据我所知,我的所有路径变量都设置正确(echo$hadoop_home返回正确的目录)。
通常,/etc/environment
文件专门用于系统范围的环境变量设置。它不是一个脚本文件,而是由赋值表达式组成,每行一个。
它不是由shell脚本处理的。
请在.bashprofile
或.bashrc
中设置环境变量并启动hadoop进程。
问题内容: 我试图在Mac OS X EL Captain 10.11上使用Java 1.7 SDK和Hadoop2.7.1运行一个简单的单词计数MapReduce程序,并且在我的容器日志“ stderr” / bin / bash中得到以下错误消息:/ bin / java:无此文件或目录 应用日志 命令我正在运行 我的ENV变量是- 问题似乎是因为YARN对JAVA可执行文件使用的路径与您在O
嗨,我是hadoop新手,正在尝试在hdfs中创建名为twitter_data目录。我已经在softlayer上建立了我的vm,成功地安装并启动了hadoop。 为什么说没有这个文件和目录?我正在命令它做目录,它不应该只是创建一个吗?我猜这一定是许可问题,但我无法解决。请帮助我的hdfs专家。我一直在花太多的时间在看似简单的事情上。 提前道谢。
我之前在我的OSX上安装了pip,但它不知何故无法正常工作。所以,我试图再次安装pip,使用命令: 但它给了我如下错误: 我既不能使用pip,也不能安装它。
我安装节点js和npm通过apt-get安装和所有的依赖关系,然后我安装浏览器 它经历了整个过程,似乎安装正确,但当我尝试按照本演练进行简单捆绑时 我得到的错误: /usr/bin/env:node:没有这样的文件或目录
我已经安装了Hadoop2.6.0,并且正在使用它。我正在尝试伪分布式设置,并按照http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/singlecluster.html#execution上的说明操作。我在第5步即运行命令时遇到了困难 我得到以下错误。 为什么我会出现这个错误?我该怎么解决呢?
问题内容: 使用Git 将项目的文件从Windows计算机提交到远程仓库后,在Linux服务器上调用失败并显示以下消息: / usr / bin / env:bash:没有这样的文件或目录 发生了什么? 问题答案: 问题的原因是Windows上的Git将行尾从Unix样式(LF)转换为Windows样式(CRLF)。 您可以使用关闭自动转换。 将行尾设置为Unix样式可解决此问题。在Vim中,这是