当前位置: 首页 > 知识库问答 >
问题:

如何在Spark2.0中启用笛卡尔联接?[副本]

东郭存
2023-03-14

我必须在Spark2.0中交叉连接2个数据帧,我遇到以下错误:

User类引发异常:

org.apache.spark.sql.AnalysisException: Cartesian joins could be prohibitively expensive and are disabled by default. To explicitly enable them, please set spark.sql.crossJoin.enabled = true; 

请帮助我在哪里设置这个配置,我正在Eclipse中编码。

共有1个答案

皇甫才良
2023-03-14

错误消息明确指出,您需要将spark.sql.crossjoin.enabled=true设置为spark配置

您可以设置相同的内容,如下所示:

val sparkConf = new SparkConf().setAppName("Test")
sparkConf.set("spark.sql.crossJoin.enabled", "true")

然后通过传递此sparkconf获取或创建sparksession

val sparkSession = SparkSession.builder().config(sparkConf).getOrCreate()

那就加入...

 类似资料:
  • 主要内容:Oracle CROSS JOIN子句简介,Oracle Cross Join示例在本教程中,您将学习如何使用Oracle 创建连接表的笛卡尔积。 Oracle CROSS JOIN子句简介 在数学中,给定两个集合和,的笛卡尔乘积是所有有序对(,)的集合,属于,属于。 要在Oracle中创建表的笛卡尔乘积,可以使用子句。 以下说明了子句的语法: 与其他连接(如或)不同,没有连接谓词的子句。 当执行两个没有关系的表的交叉连接时,将得到两个表的行和列的笛卡尔乘积。 当您想要生成大量

  • 现在有这几个数据 要转换成

  • 我有以下收藏类型: 我希望根据集合中每个键的单个值为每个创建唯一的组合。

  • 问题内容: 在Tensorflow中有什么简单的方法可以像itertools.product一样做笛卡尔积吗?我想获得两个张量(和)的元素组合,在Python中可以通过itertools作为。我正在Tensorflow中寻找替代方案。 问题答案: 我将在此假定和均为一维张量。 为了得到两者的笛卡尔积,我会用的组合和: 您使用LEN(一) LEN(B) 2张量,其中的元件的每个组合结束并且在最后一维

  • 问题内容: 我想找到元素集的笛卡尔积。这是一个例子 笛卡尔积是, abc aba acc aca bbc bba bcc bca 笛卡尔积是, zbc ybc xbc 因此,我正在考虑一种在Java中执行的算法,该算法可以在一开始就找到在编译时定义的特定数量组的笛卡尔积。 问题答案: 您可以使用该方法从谷歌的番石榴库生成笛卡尔产品: 如果一切都那么简单!

  • 问题内容: 假设我有一个如下数组: 如何在保留外部关联数组的键并将其用于内部键的同时找到笛卡尔乘积?该算法的结果应为: 我查找了许多笛卡尔乘积算法,但是我对如何保留关联键的细节感到困惑。我正在使用的当前算法仅给出数字索引: 任何帮助,将不胜感激。 问题答案: 这是我不会感到羞耻的解决方案。 基本原理 像您的示例一样,假设我们有一个带有子数组的输入数组。每个子数组都有项目,其中index在里面,键为