[新加入Spark]语言-Scala
根据文档,RangePartitioner对元素进行排序并将其划分为块,然后将块分发到不同的机器。下面的例子说明了它是如何工作的。
假设我们有一个数据框,有两列,一列(比如“a”)的连续值从1到1000。还有另一个数据帧具有相同的模式,但对应的列只有4个值30、250、500、900。(可以是任意值,从1到1000中随机选择)
如果我使用RangePartitioner对两者进行分区,
df_a.partitionByRange($"A")
df_b.partitionByRange($"A")
来自两个数据帧的数据将如何分布在节点上?
假设分区数为5。
另外,如果我知道第二个数据帧的值较少,那么减少它的分区数会有什么不同吗?
我很难理解的是,Spark如何将df_a的一个分区映射到df_b的分区,以及如何将这两个分区发送到同一台机器进行处理。
这里详细介绍了RangePartitioner
如何在内部工作
具体到您的问题,Range分区
在运行时对RDD进行采样,收集统计信息,然后才计算范围(限制)。请注意,这里有两个参数——范围(逻辑)和分区(物理)。分区的数量可能受到许多因素的影响-进审量文件,从父RDD继承的数量,在洗牌的情况下的spark.sql.shuffle.partitions等。根据抽样评估的范围。在任何情况下,Range分区都确保每个区域都包含在单个分区中。
来自两个数据帧的数据将如何分布在节点上?Spark如何将df_a的一个分区映射到df_b的一个分区
我猜你的意思是加入“A”和“B”,否则这个问题就没有任何意义了。在这种情况下,Spark将确保根据分区的统计数据,将分区与两个数据帧上的范围相匹配。
我想过滤掉具有“c2”列前3个字符的记录,无论是“MSL”还是“HCP”。 所以输出应该如下所示。 有谁能帮忙吗? 我知道df。过滤器($c2.rlike(“MSL”))--用于选择记录,但如何排除记录? 版本:Spark 1.6.2 Scala:2.10
我正在尝试使用Apache Spark,以便将具有多个连接和子选择的(大型)SQL查询的结果加载到来自Spark的DataFrame中,如从SQL查询创建Spark Dataframe中所述。 不幸的是,我这样做的尝试导致了拼花错误: 线程“main”组织中出现异常。阿帕奇。火花sql。AnalysisException:无法推断拼花地板的架构。必须手动指定。 我从谷歌看到的信息表明,当数据帧为空
在PySpark中或者至少在Scala中,Apache Spark中是否有与Pandas Melt函数等价的函数? 到目前为止,我一直在用Python运行一个示例数据集,现在我想对整个数据集使用Spark。
如何使用Spark-Scala连接日期和时间列(两个字符串)
我的理解是Spark 1之间的一个重大变化。x和2。x是从数据帧迁移到采用更新/改进的数据集对象。 但是,在所有Spark 2. x文档中,我看到正在使用,而不是。 所以我问:在Spark 2. x中,我们是否仍在使用,或者Spark人员只是没有更新那里的2. x文档以使用较新的推荐的?
并将其应用于数据表的一列--这是我希望这样做的: 我还没有找到任何简单的方法,正在努力找出如何做到这一点。一定有一个更简单的方法,比将数据rame转换为和RDD,然后从RDD中选择行来获得正确的字段,并将函数映射到所有的值,是吗?创建一个SQL表,然后用一个sparkSQL UDF来完成这个任务,这更简洁吗?