当前位置: 首页 > 文档资料 > Hadoop 中文文档 >

扩展资料/Hadoop中自定义计数器

优质
小牛编辑
127浏览
2023-12-01

一、环境

1、hadoop 0.20.2

2、操作系统Linux

二、背景

1、最近写MR的代码,总在想统计一些错误的数据出现的次数,发现如果都写在reduce的输出里太难看了,所以想找办法专门输出一些统计数字。

2、翻看《hadoop权威指南》第8章第1节的时候发现能够自定义计数器,但都是基于0.19版本写的,好多函数都不对,改动相对较大。

3、基于上面2个理由,写个文档,记录一下。

三、实现

1、前提:写入一个文件,规范的是3个字段,“t”划分,有2条异常,一条是2个字段,一条是4个字段,内容如下:

jim    1  28
kate0  26
tom    1
kaka1  22
lily0  29 22
2、统计处不规范的数据。我没有写reduce,因为不需要输出,代码如下,先看代码
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Counter;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
public class MyCounter {
	public static class MyCounterMap extends Mapper<LongWritable, Text, Text, Text> {
		
		public static Counter ct = null;
		protected void map(LongWritable key, Text value,
				org.apache.hadoop.mapreduce.Mapper<LongWritable, Text, Text, Text>.Context context)
				throws java.io.IOException, InterruptedException {
			String arr_value[] = value.toString().split("t");
			if (arr_value.length > 3) {
				ct = context.getCounter("ErrorCounter", "toolong");
				ct.increment(1);
			} else if (arr_value.length < 3) {
				ct = context.getCounter("ErrorCounter", "tooshort");
				ct.increment(1);
			}
		}
	}
	public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException {
		Configuration conf = new Configuration();
		String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
		if (otherArgs.length != 2) {
			System.err.println("Usage: MyCounter <in> <out>");
			System.exit(2);
		}
		Job job = new Job(conf, "MyCounter");
		job.setJarByClass(MyCounter.class);
		job.setMapperClass(MyCounterMap.class);
		FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
		FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
		System.exit(job.waitForCompletion(true) ? 0 : 1);
	}
}

3、启动命令如下:
hadoop jar /jz/jar/Hadoop_Test.jar jz.MyCounter /jz/* /jz/06
对于小于3个字段的采用tooshort统计,大于3个字段的采用toolong统计 4、结果如下(红色部分):
10/08/04 17:29:15 INFO mapred.JobClient: Job complete: job_201008032120_0019
10/08/04 17:29:15 INFO mapred.JobClient: Counters: 18
10/08/04 17:29:15 INFO mapred.JobClient:   Job Counters 
10/08/04 17:29:15 INFO mapred.JobClient:Launched reduce tasks=1
10/08/04 17:29:15 INFO mapred.JobClient:Rack-local map tasks=1
10/08/04 17:29:15 INFO mapred.JobClient:Launched map tasks=6
10/08/04 17:29:15 INFO mapred.JobClient:   ErrorCounter
10/08/04 17:29:15 INFO mapred.JobClient:tooshort=1
10/08/04 17:29:15 INFO mapred.JobClient:toolong=1
10/08/04 17:29:15 INFO mapred.JobClient:   FileSystemCounters
10/08/04 17:29:15 INFO mapred.JobClient:FILE_BYTES_READ=6
10/08/04 17:29:15 INFO mapred.JobClient:HDFS_BYTES_READ=47
10/08/04 17:29:15 INFO mapred.JobClient:FILE_BYTES_WRITTEN=234
10/08/04 17:29:15 INFO mapred.JobClient:   Map-Reduce Framework
10/08/04 17:29:15 INFO mapred.JobClient:Reduce input groups=0
10/08/04 17:29:15 INFO mapred.JobClient:Combine output records=0
10/08/04 17:29:15 INFO mapred.JobClient:Map input records=5
10/08/04 17:29:15 INFO mapred.JobClient:Reduce shuffle bytes=36
10/08/04 17:29:15 INFO mapred.JobClient:Reduce output records=0
10/08/04 17:29:15 INFO mapred.JobClient:Spilled Records=0
10/08/04 17:29:15 INFO mapred.JobClient:Map output bytes=0
10/08/04 17:29:15 INFO mapred.JobClient:Combine input records=0
10/08/04 17:29:15 INFO mapred.JobClient:Map output records=0
10/08/04 17:29:15 INFO mapred.JobClient:Reduce input records=0
四、总结
1、其实hadoop权威指南写的很清楚了,但是由于版本不一样,所以很多方法也不同,总一下,主要有以下不同:
不再需要枚举的类型、计数器名不在需要写properties文件,调用的方法在context中都封装了。
2、hadoop权威指南中写了统计百分比值,代码改改就能实现,就是一个总数除以错误数然后百分比的结果。
3、有疑问或是写的不对的地方,欢迎发邮件到dajuezhao@gmail.com