当前位置: 首页 > 知识库问答 >
问题:

SparkContext、JavaSparkContext、SQLContext和sparksession之间的区别?

曾绯辞
2023-03-14
  • RDD
  • javardd
  • JavaPairRDD
  • 数据集

是否有方法将JavaAirRDD转换为数据集或将数据集转换为JavaAirRDD

共有1个答案

詹高畅
2023-03-14

sparkcontext是Scala实现入口点,JavaSparkcontextsparkcontext的java包装器。

SQLContext是SparkSQL的入口点,可以从SparkContext接收。在2.x.x之前,RDD、DataFrame和Data-set是三个不同的数据抽象。由于Spark2.x.x,所有这三个数据抽象都是统一的,SparkSession是Spark的统一入口点。

另外一个注意事项是,RDD用于非结构化数据,强类型数据和DataFrames用于结构化和松散类型数据。你可以查一下

有没有使用Sparksession转换或创建上下文的方法?

是的。它的sparksession.sparkcontext()和对于SQL的sparksession.sqlcontext()

我可以使用一个条目SparkSession完全替换所有上下文吗?

SQLContext、SparkContext、JavaSparkContext等中的所有函数都添加到sparksession中了吗?

不是直接的。您必须获得相应的上下文并加以利用,比如向后兼容性

如何在sparksession中使用这样的函数?

    null
 类似资料:
  • 问题内容: 和之间有什么区别? 是否有使用转换或创建Context的方法? 我可以使用一个条目完全替换所有上下文吗? 在所有的功能,和也? 某些功能在和中具有不同的行为。他们的行为如何? 如何使用?创建以下内容? 有没有一种方法可以将a 转换为a 或a 转换为a ? 问题答案: 是Scala实现的入口点,是的Java包装器。 是SparkSQL的入口点,可以从2.xx 接收.RDD,DataFra

  • 我正在运行spark批处理作业,并使用,因为我需要在每个组件中处理许多spark sql功能。在父组件中初始化,并作为传递给子组件。 在我的一个子组件中,我想在我的中再添加两个配置。因此,我需要从中检索,停止它并用附加配置重新创建。要做到这一点,我如何从Spark会话检索SparkContext?

  • 我试图加载一个列表到一个数据框作为我的测试的一部分使用函数,但问题是我无法创建/检索。因此,我不能使用方法。但是,我可以创建一个。 是否有任何方法可以从获取,或者除了方法之外,还有其他方法可以将列表加载到数据帧中?

  • 问题内容: 我错放了太多次了,我想我一直忘记,因为我不知道两者之间的区别,只是一个给了我我期望的价值,而另一个却没有。 为什么是这样? 问题答案: 是的简写形式(尽管请注意,该表达式只会被计算一次。) 是的,即指定一元的到。 例子:

  • 问题内容: 因此,我有一段简单的代码可以打印出整数1-10: 然后,如果仅在第3行上更改一个运算符,它将打印出无限数量的1整数(我知道为什么会这样做)。为什么在运行第二个程序时没有出现语法错误?如果赋值运算符后面跟着一个加法运算符,它不会调用语法错误吗? 问题答案: 与相同, 只是意味着。