嗨,我有下面的map-reduce代码,我试图通过它解析我的XML文件并在输出中创建一个CSV。
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.conf.*;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
public class XMLParseMR {
public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
private final static IntWritable one = new IntWritable(1);
public static String outputFile = null;
private Text word = new Text();
private JAXBC jax = new JAXBC();
public void map(LongWritable key, Text value, Context context) throws
IOException, InterruptedException {
String document = value.toString();
System.out.println("XML : "+ document);
try {
ConnectHome ch = jax.convertJAXB(document);
jax.convertCSV(ch, outputFile);
}
catch (JAXBException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}
public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();
Job job = new Job(conf, "wordcount");
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.setMapperClass(Map.class);
conf.set("xmlinput.start", "<ConnectHome>");
conf.set("xmlinput.end", "</ConnectHome>");
job.setInputFormatClass(XMLInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
Map.outputFile = args[1];
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
job.waitForCompletion(true);
}
}
我还有一个名为Connect_Home的类,在这个类中,我使用JAXB解析数据,提取数据。但当我运行代码时,会出现以下错误:
WARN mapred.JobClient: Use GenericOptionsParser for parsing the arguments.
Applications should implement Tool for the same.
WARN mapred.JobClient: No job jar file set. User classes may not be found. See
JobConf(Class) or JobConf#setJar(String).
INFO input.FileInputFormat: Total input paths to process : 1
INFO util.NativeCodeLoader: Loaded the native-hadoop library
WARN snappy.LoadSnappy: Snappy native library not loaded
INFO mapred.JobClient: Running job: job_201303121556_0011
mapred.JobClient: map 0% reduce 0%
INFO mapred.JobClient: Task Id : attempt_201303121556_0011_m_000000_0, Status :
FAILED
java.lang.RuntimeException: java.lang.ClassNotFoundException: XMLParseMR$Map
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1004)
org.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContext.java:217)
at javax.security.auth.Subject.doAs(Subject.java:396)
at
org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1278)
at org.apache.hadoop.mapred.Child.main(Child.java:260)
Caused by: java.lang.ClassNotFoundException: XMLParseMR$Map
at java.net.URLClassLoader$1.run(URLClassLoader.java:200)
at sun.misc.Launcher$AppClassLoader.loadCl
INFO mapred.JobClient: Task Id : attempt_201303121556_0011_m_000000_1, Status :
FAILED
java.lang.RuntimeException: java.lang.ClassNotFoundException:
XMLParseMR$Map
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1004)
at
org.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContext.java:217)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:602)
at javax.security.auth.Subject.doAs(Subject.java:396)
at
org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1278)
at org.apache.hadoop.mapred.Child.main(Child.java:260)
Caused by: java.lang.ClassNotFoundException: XMLParseMR$Map
at java.net.URLClassLoader$1.run(URLClassLoader.java:200)
at java.security.AccessController.doPrivileged(Native Method)
at sun.misc.Launcher$AppClassLoader.loadCl
INFO mapred.JobClient: Task Id : attempt_201303121556_0011_m_000000_2, Status :
FAILED
java.lang.RuntimeException: java.lang.ClassNotFoundException: XMLParseMR$Map
at org.apache.hadoop.conf.Configuration.getClass(Configuration.java:1004)
at
org.apache.hadoop.mapreduce.JobContext.getMapperClass(JobContext.java:217)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:602)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:323)
at org.apache.hadoop.mapred.Child$4.run(Child.java:266)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at
org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1278)
at org.apache.hadoop.mapred.Child.main(Child.java:260)
Caused by: java.lang.ClassNotFoundException: XMLParseMR$Map
at java.net.URLClassLoader$1.run(URLClassLoader.java:200)
at sun.misc.Launcher$AppClassLoader.loadCl
INFO mapred.JobClient: Job complete: job_201303121556_0011
INFO mapred.JobClient: Counters: 7INFO mapred.JobClient: Job Counters
INFO mapred.JobClient: SLOTS_MILLIS_MAPS=20097
INFO mapred.JobClient: Total time spent by all reduces waiting after reserving
slots (ms)=0
INFO mapred.JobClient: Total time spent by all maps waiting after reserving
slots (ms)=0
INFO mapred.JobClient: Launched map tasks=4
INFO mapred.JobClient: Data-local map tasks=4
INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=0
INFO mapred.JobClient: Failed map tasks=1
错误消息:
WARN mapred.JobClient: No job jar file set. User classes may not be found. See
JobConf(Class) or JobConf#setJar(String).
告诉您作业设置不正确。您可以在设置作业时通过调用setJarbyClass()
来让Hadoop自行确定JAR,而不是按名称设置JAR:
Job job = new Job(conf, "wordcount");
job.setJarByClass(XMLParseMR.class);
它将根据您的类名设置作业的JAR。之后,您的作业应该正确运行,并且上面提到的错误消息将消失。
我有以下形式的地图: 让INNER成为内部地图,即。 例如,我想在一个新的中减少START映射 它们具有相同的键,但值不同。特别是,对于每个键,我希望新的Double值是相应键的INNER映射中值的SUM。 如何使用JAVA 8的流API来实现这一点? 谢谢大家。 编辑:样例地图为 我想要一张像下面这样的新地图:
如果我执行以下“连接”两个流的代码 < li >首先通过平面映射< code >流 我在两种情况下都获得了相同的正确结果,但过滤操作的次数不同。 我在两种情况下都得到了预期的结果(3)。但是,第一个操作对集合的每个元素应用第一个过滤器,而第二个操作在遇到一个过滤器时就停止。输出是: 为什么两者之间的行为有所不同?JDK代码在第一个场景中是否可以改进为与第二个场景中一样高效,或者是否有一些东西使其不
我很困惑为什么会发生这种情况。我已经在这方面工作了一段时间,我只是不明白。 我的Map代码工作时,我能够在它所在的目录中验证输出。 文件中的输出如下所示: 但是为什么我不能拆分
我正在做一些类似于标准MapReduce示例的事情——字数统计,但是有所改变,我只希望得到前N个结果。 假设我在HDFS有一个非常大的文本数据集。有大量的例子展示了如何构建一个Hadoop MapReduce作业,为你提供文本中每个单词的字数。例如,如果我的语料库是: “这是对测试数据的检验,也是检验这一点的好方法” 来自标准 MapReduce 字数统计作业的结果集为: 测试:3、a:2、thi
问题内容: 我刚刚开始使用hadoop / hbase MapReduce工作(使用cloudera),但我有以下问题: 假设我们有一个带有主要和静态viariable的java类。该类定义与Mapper和Reducer任务相对应的内部类。在启动作业之前,主程序初始化静态变量。在Mapper类中读取此变量。然后使用群集上的“ hadoop jar”启动该类。 我的问题:我看不到其他节点上的Map和
调用clear方法时,内存似乎减少了。然而,从其他答案来看,似乎< code>clear方法从未收缩过< code>HashMap。那么为什么内存会减少呢?