当前位置: 首页 > 知识库问答 >
问题:

使用hadoop-mapreduce-examples-2.7.7.jar时出错

包和泰
2023-03-14

hadoop@nodo1:/opt/hadoop$hadoop version hadoop 2.7.7 Subversion Unknown-r c1aad84bd27cd79c3d1a7dd58202a8c3ee1ed3ac由stevel在2018-07-18T22:47Z用protoc 2.5.0从源代码处编译,带有校验和792E15D20B12C74BD6F19A1FB886490此命令使用/opt/hadoop/share/hadoop/common/hadoop-common-2.7.7.jar运行

在课程中,我使用

/opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount 

但当我运行该命令时,将显示下一个错误:

hadoop@nodo1:/opt/hadoop$hadoop jar/opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount/libros/output3

异常:输出目录hdfs:/nodo1:9000/output3在org.apache.hadoop.mapreduce.lib.Output.fileoutputformat.checkoutputspecs(fileoutputformat.java:146)在org.apache.hadoop.mapreduce.jobsubmitter.checkspecs(jobsubmitter.java:266)在org.apache.hadoop.mapreduce.job$10在org.apache.hadoop.mapreduce.jobinternal(jobsubmitter.java:139)在MethodAccessorImpl.java:62)位于Sun.Reflect.DelegatingMethodAccessorImpl.java:43)位于java.lang.Reflect.Method.Invoke(Method.java:498)位于org.apache.hadoop.util.ProgramDriver$ProgramDescription.Invoke(ProgramDriver.java:71)位于org.apache.hadoop.util.ProgramDriver.Run(ProgramDriver.java:144)位于

在路上我有一本书

hadoop@nodo1:/opt/hadoop$hdfs dfs-ls/libros/Found 1个项目-rw-r--r--1 hadoop supergroup 2198927 2018-11-02 10:22/libros/quijote.txt

TNK来自您的帮助

共有1个答案

谷梁存
2023-03-14

先做

hdfs dfs -ls /output3

如果有文件,

删除,输出目录hdfs:/nodo1:9000/output3或者,

# Change output3 to output4
hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /libros /output4 
 类似资料:
  • 嘿,伙计们,我正在跟踪http://www.tutorialspoint.com/hadoop/hadoop_mapreduce.htm。使用这个运行程序后 我收到以下错误: 2004年9月16日20:32:14警告用户。NativeCodeLoader:无法为您的平台加载本机hadoop库。。。在适用的情况下使用内置java类 2004年9月16日20:32:15信息配置。弃用:会话。id已弃用

  • > 据说MapReduce接收一个文件并生成键值对。什么是钥匙?只是一个词,一个词的组合还是别的什么?如果关键是文件中的单词,那么为MapReduce编写代码的目的是什么?MapReduce应该在不实现特定算法的情况下做同样的事情。 如果所有的东西都转换成键值对,那么Hadoop所做的就是像JAVA和C#一样创建一个字典,Wright?也许Hadoop可以以更高效的方式创建字典。除了效率,Hado

  • 本文向大家介绍Hadoop MapReduce多输出详细介绍,包括了Hadoop MapReduce多输出详细介绍的使用技巧和注意事项,需要的朋友参考一下 Hadoop MapReduce多输出 FileOutputFormat及其子类产生的文件放在输出目录下。每个reducer一个文件并且文件由分区号命名:part-r-00000,part-r-00001,等等。有时可能要对输出的文件名进行控制

  • 减速器正在计算所有相同的值: 然而,当我在hadoop上运行一个更大的数据集时,似乎丢失了一半的结果。当我在本地机器上使用cat input mapper.py sort reducer.py>out-local测试它时,如果输入合理地很小,它工作得很好,但是在更大的数据集上(例如1M个条目),本地输出文件的条目几乎是在Hadoop上运行mapreduce作业的两倍。代码有错误吗?还是我漏掉了什么

  • 我正在学习一些MapReduce,但是我遇到了一些问题,情况是这样的:我有两个文件:“users”包含一个用户列表,其中包含一些用户数据(性别、年龄、国家等)...)文件看起来像这样: “歌曲”包含所有用户收听的歌曲的数据(用户ID,收听日期和时间,艺术家ID,艺术家姓名,歌曲ID,歌曲标题): 目标是在某些国家找到k首最受欢迎的歌曲。k和输入中提供的国家列表。 我决定为映射器使用Multiple