如何RDD
使用分布式方法,IPython和Spark查找整数的整数中位数?该RDD
元素约为700,000个元素,因此太大而无法收集和找到中位数。
使用Scala答案的思想,我试图用Python编写类似的答案。
我知道我首先要排序RDD
。我不知道怎么。我看到了sortBy
(按给定的RDD排序keyfunc
)和sortByKey
(按RDD
假定的(key,value)对组成的this排序)。我认为两者都使用键值,而我RDD
只有整数元素。
myrdd.sortBy(lambda x: x)
?rdd.count()
)的长度。编辑:
我有个主意 也许我可以索引我的索引RDD
,然后键=索引和值=元素。然后我可以尝试按值排序?我不知道这是否可能,因为只有一种sortByKey
方法。
SPARK-30569 -
添加DSL功能调用percentile_approx
您可以使用approxQuantile
实现Greenwald-
Khanna算法的方法
:
Python :
df.approxQuantile("x", [0.5], 0.25)
Scala :
df.stat.approxQuantile("x", Array(0.5), 0.25)
最后一个参数是相对误差。数字越低,结果越准确,计算量也越多。
从Spark
2.2(SPARK-14352)开始,它支持对多个列的估算:
df.approxQuantile(["x", "y", "z"], [0.5], 0.25)
和
df.approxQuantile(Array("x", "y", "z"), Array(0.5), 0.25)
底层方法也可以用于使用approx_percentile
功能的SQL聚合(全局和摸索)中:
> SELECT approx_percentile(10.0, array(0.5, 0.4, 0.1), 100);
[10.0,10.0,10.0]
> SELECT approx_percentile(10.0, 0.5, 100);
10.0
蟒蛇
正如我在评论中提到的那样,很可能不值得大惊小怪。如果像您这样的情况数据相对较小,则只需在本地收集和计算中位数即可:
import numpy as np
np.random.seed(323)
rdd = sc.parallelize(np.random.randint(1000000, size=700000))
%time np.median(rdd.collect())
np.array(rdd.collect()).nbytes
在我使用了几年的旧计算机上,大约需要0.01秒的时间,大约需要5.5MB的内存。
如果数据更大,则排序将是一个限制因素,因此与其获得确切的值,不如直接在本地进行采样,收集和计算。但是,如果您真的想使用Spark,则可以使用以下方法(如果我没有弄乱任何东西):
from numpy import floor
import time
def quantile(rdd, p, sample=None, seed=None):
"""Compute a quantile of order p ∈ [0, 1]
:rdd a numeric rdd
:p quantile(between 0 and 1)
:sample fraction of and rdd to use. If not provided we use a whole dataset
:seed random number generator seed to be used with sample
"""
assert 0 <= p <= 1
assert sample is None or 0 < sample <= 1
seed = seed if seed is not None else time.time()
rdd = rdd if sample is None else rdd.sample(False, sample, seed)
rddSortedWithIndex = (rdd.
sortBy(lambda x: x).
zipWithIndex().
map(lambda (x, i): (i, x)).
cache())
n = rddSortedWithIndex.count()
h = (n - 1) * p
rddX, rddXPlusOne = (
rddSortedWithIndex.lookup(x)[0]
for x in int(floor(h)) + np.array([0L, 1L]))
return rddX + (h - floor(h)) * (rddXPlusOne - rddX)
和一些测试:
np.median(rdd.collect()), quantile(rdd, 0.5)
## (500184.5, 500184.5)
np.percentile(rdd.collect(), 25), quantile(rdd, 0.25)
## (250506.75, 250506.75)
np.percentile(rdd.collect(), 75), quantile(rdd, 0.75)
(750069.25, 750069.25)
最后让我们定义中位数:
from functools import partial
median = partial(quantile, p=0.5)
到目前为止还算不错,但是在本地模式下需要4.66 s,没有任何网络通信。可能有改善的方法,但是为什么还要打扰呢?
与语言无关 ( Hive UDAF ):
如果使用HiveContext
,也可以使用Hive UDAF。具有整数值:
rdd.map(lambda x: (float(x), )).toDF(["x"]).registerTempTable("df")
sqlContext.sql("SELECT percentile_approx(x, 0.5) FROM df")
具有连续值:
sqlContext.sql("SELECT percentile(x, 0.5) FROM df")
在其中percentile_approx
可以传递一个附加参数,该参数确定要使用的记录数。
问题内容: 如何RDD使用分布式方法,IPython和Spark 查找整数的中位数?该元素约为700,000个元素,因此太大而无法收集和找到中位数。 这个问题类似于这个问题。但是,问题的答案是使用Scala,我不知道。 如何使用计算精确的中位数? 使用Scala答案的思想,我试图用Python编写类似的答案。 我知道我首先要排序。我不知道怎么。我看到了(按给定的排序)和(按RDD假定的()对组成的
本文向大家介绍如何使用HTML5地理位置查找位置?,包括了如何使用HTML5地理位置查找位置?的使用技巧和注意事项,需要的朋友参考一下 HTML5 Geolocation API使您可以与自己喜欢的网站共享位置。JavaScript可以捕获您的纬度和经度,并且可以发送到后端Web服务器,并进行精美的位置感知操作,例如查找本地商家或在映射上显示您的位置。 地理位置API使用全局导航器对象的新属性,即
本文向大家介绍如何在R中找到没有分位数名称的分位数?,包括了如何在R中找到没有分位数名称的分位数?的使用技巧和注意事项,需要的朋友参考一下 R中的分位数的计算非常简单,我们只需要使用分位数功能,它就会返回所有分位数为0%,25%,50%,75%和100%的分位数。如果我们要避免打印这些分位数的名称,则可以将name = FALSE与分位数功能一起使用。例如,如果我们有一个叫做x的向量,那么没有名字
我试图从Java中未排序的数组中找到中位数。首先,我需要使用选择排序技术对数组进行排序,并且我不能使用任何Java库方法进行排序(因此没有Arrays.sort(array))。另外,我也不能对整个数组进行排序。我只能对尽可能多的元素进行排序,以找到数组的中位数。我想对于一个偶数组,它只是元素的一半加一(然后找到最后两个元素的平均值),而对于一个奇数组,它只会是元素的一半(最后一个是中位数)。 因
问题内容: 有没有一种我可以用来简单地找到文件位置的方法?我正在尝试允许用户选择一个文件并打开它,但是我必须让JFileChooser仅选择该文件并将该位置发送到另一种方法。最好的方法是什么? 问题答案: javadoc show中的示例显示了执行此操作的步骤: 那是在做什么。取得结果并将其传递给另一种方法。
我有这样的数据。 从上述数据中细化“中位数”的最短方法是什么。我的结果应该是这样的... 中位数 = 1/2(n 1),其中 n 是样本中数据值的数量。