当前位置: 首页 > 教程 > Spark >

Spark reduceByKey函数

精华
小牛编辑
94浏览
2023-03-14

在Spark中,reduceByKey函数是一种常用的转换操作,它执行数据聚合。它接收键值对(K,V)作为输入,基于键聚合值并生成(K,V)对的数据集作为输出。

reduceByKey函数的示例

在此示例中,我们基于键聚合值。要在Scala模式下打开Spark,请按照以下命令操作。

$ spark-shell

使用并行化集合创建RDD。

scala> val data = sc.parallelize(Array(("C",3),("A",1),("B",4),("A",2),("B",5)))

现在,可以使用以下命令读取生成的结果。

scala> data.collect

应用reduceByKey()函数来聚合值。

scala> val reducefunc = data.reduceByKey((value, x) => (value + x))

现在,可以使用以下命令读取生成的结果。

scala> reducefunc.collect