当前位置: 首页 > 编程笔记 >

MongoDB中的MapReduce简介

关苗宣
2023-03-14
本文向大家介绍MongoDB中的MapReduce简介,包括了MongoDB中的MapReduce简介的使用技巧和注意事项,需要的朋友参考一下

MongoDB MapReduce

MapReduce是一种计算模型,简单的说就是将大批量的工作(数据)分解(MAP)执行,然后再将结果合并成最终结果(REDUCE)。这样做的好处是可以在任务被分解后,可以通过大量机器进行并行计算,减少整个操作的时间。

上面是MapReduce的理论部分,下面说实际的应用,下面以MongoDB MapReduce为例说明。

下面是MongoDB官方的一个例子:


> db.things.insert( { _id : 1, tags : ['dog', 'cat'] } );

> db.things.insert( { _id : 2, tags : ['cat'] } );

> db.things.insert( { _id : 3, tags : ['mouse', 'cat', 'dog'] } );

> db.things.insert( { _id : 4, tags : []  } );

> // map function > map = function(){ ...    this.tags.forEach( ...        function(z){ ...            emit( z , { count : 1 } ); ...        } ...    ); ...};

> // reduce function > reduce = function( key , values ){ ...    var total = 0; ...    for ( var i=0; i<values.length; i++ ) ...        total += values[i].count; ...    return { count : total }; ...};

db.things.mapReduce(map,reduce,{out:'tmp'}) {     "result" : "tmp",     "timeMillis" : 316,     "counts" : {         "input" : 4,         "emit" : 6,         "output" : 3     },     "ok" : 1, } > db.tmp.find() { "_id" : "cat", "value" : { "count" : 3 } } { "_id" : "dog", "value" : { "count" : 2 } } { "_id" : "mouse", "value" : { "count" : 1 } }

例子很简单,计算一个标签系统中每个标签出现的次数。

这里面,除了emit函数之外,所有都是标准的js语法,这个emit函数是非常重要的,可以这样理解,当所有需要计算的文档(因为在mapReduce时,可以对文档进行过滤,接下来会讲到)执行完了map函数,map函数会返回key_values对,key即是emit中的第一个参数key,values是对应同一key的emit的n个第二个参数组成的数组。这个key_values会作为参数传递给reduce,分别作为第1.2个参数。

reduce函数的任务就是将key-values变成key-value,也就是把values数组变成一个单一的值value。当key-values中的values数组过大时,会被再切分成很多个小的key-values块,然后分别执行Reduce函数,再将多个块的结果组合成一个新的数组,作为Reduce函数的第二个参数,继续Reducer操作。可以预见,如果我们初始的values非常大,可能还会对第一次分块计算后组成的集合再次Reduce。这就类似于多阶的归并排序了。具体会有多少重,就看数据量了。

reduce一定要能被反复调用,不论是映射环节还是前一个简化环节。所以reduce返回的文档必须能作为reduce的第二个参数的一个元素。

(当书写Map函数时,emit的第二个参数组成数组成了reduce函数的第二个参数,而Reduce函数的返回值,跟emit函数的第二个参数形式要一致,多个reduce函数的返回值可能会组成数组作为新的第二个输入参数再次执行Reduce操作。)

MapReduce函数的参数列表如下:


db.runCommand(

 { mapreduce : <collection>,

   map : <mapfunction>,

   reduce : <reducefunction>

   [, query : <query filter object>]

   [, sort : <sort the query.  useful for optimization>]

   [, limit : <number of objects to return from collection>]

   [, out : <output-collection name>]

   [, keeptemp: <true|false>]

   [, finalize : <finalizefunction>]

   [, scope : <object where fields go into javascript global scope >]

   [, verbose : true]

 }

);


或者这么写:

db.collection.mapReduce(

                         <map>,

                         <reduce>,

                         {

                           <out>,

                           <query>,

                           <sort>,

                           <limit>,

                           <keytemp>,

                           <finalize>,

                           <scope>,

                           <jsMode>,

                           <verbose>

                         }

                       )

1.mapreduce:指定要进行mapreduce处理的collection
2.map:map函数
3.reduce:reduce函数
4.out:输出结果的collection的名字,不指定会默认创建一个随机名字的collection(如果使用了out选项,就不必指定keeptemp:true了,因为已经隐含在其中了)
5.query:一个筛选条件,只有满足条件的文档才会调用map函数。(query。limit,sort可以随意组合)
6.sort:和limit结合的sort排序参数(也是在发往map函数前给文档排序),可以优化分组机制
7.limit:发往map函数的文档数量的上限(要是没有limit,单独使用sort的用处不大)
8.keytemp:true或false,表明结果输出到的collection是否是临时的,如果想在连接关闭后仍然保留这个集合,就要指定keeptemp为true,如果你用的是MongoDB的mongo客户端连接,那必须exit后才会删除。如果是脚本执行,脚本退出或调用close会自动删除结果collection
9.finalize:是函数,它会在执行完map、reduce后再对key和value进行一次计算并返回一个最终结果,这是处理过程的最后一步,所以finalize就是一个计算平均数,剪裁数组,清除多余信息的恰当时机
10.scope:javascript代码中要用到的变量,在这里定义的变量在map,reduce,finalize函数中可见
11.verbose:用于调试的详细输出选项,如果想看MpaReduce的运行过程,可以设置其为true。也可以print把map,reduce,finalize过程中的信息输出到服务器日志上。

执行MapReduce函数返回的文档结构如下:


  { result : <collection_name>,

    timeMillis : <job_time>,

    counts : {

               input : <number of objects scanned>,

               emit : <number of times emit was called>,

               output : <number of items in output collection>

     } ,

     ok : <1_if_ok>,

     [, err : <errmsg_if_error>]

}

1.result:储存结果的collection的名字,这是个临时集合,MapReduce的连接关闭后自动就被删除了。
2.timeMillis:执行花费的时间,毫秒为单位
3.input:满足条件被发送到map函数的文档个数
4.emit:在map函数中emit被调用的次数,也就是所有集合中的数据总量
5.ouput:结果集合中的文档个数(count对调试非常有帮助)
6.ok:是否成功,成功为1
7.err:如果失败,这里可以有失败原因,不过从经验上来看,原因比较模糊,作用不大

java代码执行MapReduce的方法:


public void MapReduce() {

        Mongo mongo = new Mongo("localhost",27017);

        DB db = mongo.getDB("qimiguangdb");

        DBCollection coll = db.getCollection("collection1");

       

        String map = "function() { emit(this.name, {count:1});}";

                                                                                                              

   

        String reduce = "function(key, values) {";  

        reduce=reduce+"var total = 0;";  

        reduce=reduce+"for(var i=0;i<values.length;i++){total += values[i].count;}";  

        reduce=reduce+"return {count:total};}";  

          

        String result = "resultCollection";  

          

        MapReduceOutput mapReduceOutput = coll.mapReduce(map,  

                reduce.toString(), result, null);  

        DBCollection resultColl = mapReduceOutput.getOutputCollection();  

        DBCursor cursor= resultColl.find();  

        while (cursor.hasNext()) {  

            System.out.println(cursor.next());  

        }  

    }  

 类似资料:
  • 主要内容:mapReduce 命令,使用 mapReduce在用 MongoDB 查询时,若返回的数据量很大,或者做一些比较复杂的统计和聚合操作做花费的时间很长时,可以使用 MongoDB 中的 mapReduce 进行实现。mapReduce 是个灵活且强大的数据聚合工具,它的好处是可以把一个聚合任务分解为多个小的任务,分配到多个服务器上并行处理。 在 MongoDB 中我们可以使用 mapReduce 命令来执行 mapReduce 操作。 mapRe

  • 问题内容: 我已经流式传输了大约25万条推文并将其保存到MongoDB中,在这里,我正在检索它,如您所见,基于推文中出现的单词或关键字。 我想做的是使用Map- Reduce并基于关键字进行分类,并将其传递给reduce函数以计算每个类别下的tweet数量,有点像您在这里可以看到的。在该示例中,他正在计算页面数,因为它是一个简单的数字。我想做类似的事情: 然后使用reduce函数来获取计数,就像在

  • 本文向大家介绍MongoDB中MapReduce的使用方法详解,包括了MongoDB中MapReduce的使用方法详解的使用技巧和注意事项,需要的朋友参考一下 前言 玩过Hadoop的小伙伴对MapReduce应该不陌生,MapReduce的强大且灵活,它可以将一个大问题拆分为多个小问题,将各个小问题发送到不同的机器上去处理,所有的机器都完成计算后,再将计算结果合并为一个完整的解决方案,这就是所谓

  • 本文向大家介绍请简述 mapreduce 中,combiner,partition 作用?相关面试题,主要包含被问及请简述 mapreduce 中,combiner,partition 作用?时的应答技巧和注意事项,需要的朋友参考一下 解答: combiner是reduce的实现,在map端运行计算任务,减少map端的输出数据。 作用就是优化。 但是combiner的使用场景是mapreduce的

  • 本文向大家介绍请简述mapreduce中,combiner,partition作用?相关面试题,主要包含被问及请简述mapreduce中,combiner,partition作用?时的应答技巧和注意事项,需要的朋友参考一下 在MapReduce整个过程中,combiner是可有可无的,需要是自己的情况而定,如果只是单纯的对map输出的key-value进行一个统计,则不需要进行combiner,c

  • 一、背景 最近总在弄MR的东西,所以写点关于这个方面的内容,总结一下吧 二、流程描述 说实话,文字描述比较苍白,画了个图,贴出来,大家看看,有问题欢迎指出 三、总结 1、值得提出的是,一个map结束就马上会进行分区的操作。并非是等所有的map都结束才做分区的操作。 2、分组的操作是对key的值进行比较分组。(可以是复合key,也可以是单一的key) 3、关于job.setSortComparato