当前位置: 首页 > 知识库问答 >
问题:

无法删除目录/app/hadoop/tmp/dfs/name/current

国斌斌
2023-03-14

我试图在Ubuntu中设置单节点hadoop设置,当我运行hadoop namenode-format时,我得到一个错误“不能删除目录/app/hadoop/tmp/dfs/name/current”。我以root用户身份删除了当前目录,然后尝试了命令,但出现了不同错误,如下所示:

hduser@ubuntu:/usr/local/hadoop/bin$ hadoop namenode -format
14/06/17 22:58:46 INFO namenode.NameNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = ubuntu/127.0.1.1
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 1.2.1
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by 'mattf' on Mon Jul 22 15:23:09 PDT 2013
STARTUP_MSG:   java = 1.7.0_55
**************************************************
Re-format filesystem in /app/hadoop/tmp/dfs/name ? (Y or N) Y
14/06/17 22:58:49 INFO util.GSet: Computing capacity for map BlocksMap
14/06/17 22:58:49 INFO util.GSet: VM type       = 64-bit
14/06/17 22:58:49 INFO util.GSet: 2.0% max memory = 1013645312
14/06/17 22:58:49 INFO util.GSet: capacity      = 2^21 = 2097152 entries
14/06/17 22:58:49 INFO util.GSet: recommended=2097152, actual=2097152
14/06/17 22:58:51 INFO namenode.FSNamesystem: fsOwner=hduser
14/06/17 22:58:51 INFO namenode.FSNamesystem: supergroup=supergroup
14/06/17 22:58:51 INFO namenode.FSNamesystem: isPermissionEnabled=true
14/06/17 22:58:51 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
14/06/17 22:58:51 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
14/06/17 22:58:51 INFO namenode.FSEditLog: dfs.namenode.edits.toleration.length = 0
14/06/17 22:58:51 INFO namenode.NameNode: Caching file names occuring more than 10 times 
14/06/17 22:58:52 ERROR namenode.NameNode: java.io.IOException: Cannot create directory /app/hadoop/tmp/dfs/name/current
    at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.clearDirectory(Storage.java:294)
    at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:1337)
    at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:1356)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:1261)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1467)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1488)

14/06/17 22:58:52 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at ubuntu/127.0.1.1

然后,我尝试使用sudo命令,并尝试授予对hduser的访问权限,但没有成功。

hduser@ubuntu:/usr/local/hadoop/bin$ sudo hadoop namenode -format
[sudo] password for hduser: 
sudo: hadoop: command not found

共有1个答案

朱自明
2023-03-14

尝试以hduser user:hduser@ubuntu:mkdir/app/hadoop/tmp/dfs/name/current的身份从shell手动创建目录,并发布错误。如果得到“权限被拒绝”,张贴目录名、dfs和TMP的权限。

 类似资料:
  • 当我在Android studio中重建一个Gradle项目时,它给了我以下错误: Gradle:执行任务“:lib:clean”失败。无法删除目录:/path/to/project/lib/build/explobded-bundles/ComandroidSupportAppCompatv71901.aar 原来文件夹包含一个名为的文件(或其他一些随机文件)。我在谷歌上搜索了一下,它似乎是一个

  • 问题内容: 我有此功能可以将图像保存在tmp文件夹中 但是,当我打开应用程序的temp文件夹时,它是空的。将图像保存在temp文件夹中,我做错了什么? 问题答案: 不是获取的文件路径的正确方法,请改用: 或者 更好的是, 仅使用URL: 更好的是,使用 并检查成功或失败: Swift 3/4更新:

  • 我正在尝试访问。我已经使用ebconfig将json文件下载到/tmp/目录,以在S3上存储私钥。 但它给了我以下错误 错误:EACCES:权限被拒绝,打开“/tmp/firebaseadminsdk”。json’ 文件中有一段说 第二个条目使用S3Auth身份验证方法从指定的URL下载私钥,并将其保存到/etc/pki/tls/certs/server。钥匙然后,代理服务器可以从此位置读取私钥,

  • 本文向大家介绍请写出删除 hdfs 上的/tmp/aaa 目录的命令相关面试题,主要包含被问及请写出删除 hdfs 上的/tmp/aaa 目录的命令时的应答技巧和注意事项,需要的朋友参考一下 hadoop fs -rmr /tmp/aaa  

  • Im使用spark-2.1.1-bin-hadoop-2.7独立模式(由4个工作线程组成的集群,120g内存,总共32核),尽管我定义了spark。地方的dirconf-param要写入到/opt,spark worker将继续写入/tmpdir,例如/tmp/spark-e071ae1b-1970-47b2-bfec-19ca66693768 有没有办法告诉spark worker不要写入tmp

  • 我在Intellij IDEA中工作,我无法用gradle评估这个问题。我达到了学校实验室机器的内存配额,所以我被告知删除我的. gradle目录,因为它占用了最多的空间。但是现在我似乎根本无法刷新我的gradle构建。 自从我删除以来,已经过了一段时间。渐变/目录。我刚才检查了一下,发现我可以通过终端(linux)进入目录,但运行“ls”不会显示文件夹的任何内容。 尝试在intellij中刷新时