我正在Intellij上运行一个Spark程序,并得到以下错误:“object apache不是包org的成员”。
我在代码中使用了这些导入语句:
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
上面的导入语句也没有在sbt提示符上运行。相应的库似乎丢失了,但我不确定如何复制相同的库以及在哪个路径上。
距离上一个答案大约有5年了,但我有同样的问题,这里提到的答案不起作用。所以,希望这个答案适用于那些发现自己处于与我相同位置的人。
我能够从sbt shell运行scala程序,但在Intellij中无法运行。这是我为解决问题所做的:
文件-
文件-
单击“查看”-
项目应成功加载。重建项目。
确保您在SBT中有这样的条目:
scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
"org.apache.spark" %% "spark-core" % "2.1.0",
"org.apache.spark" %% "spark-sql" % "2.1.0"
)
然后通过启用“自动导入”或单击SBT面板上的刷新按钮手动执行,确保IntelliJ知道这些库。
我正在编译一个scala应用程序,我发现了标题中键入的错误。 Scala版本:Scala 2.11.8 Spark版本:Spark 1.6.1 Intellij:20161.3 libraryDependencies+=“org.apache.spark”%%“Spark-core”%“1.6.1” scala和spark版本之间可能不兼容?
我正在尝试用IntelliJ IDEA打开Apache Spark源代码。 我在Spark源代码根目录上打开了pom.xml。 项目树显示在项目工具窗口中。 但是,当我打开一个源文件时,比如org.apache.spark.deploy.yarn.ClientBase.scala,编辑器滚动条上会显示很多红色标记。这是“无法解决符号”错误。即使它也无法解决StringOps.format. 我怎么
我正在尝试在一个大约14 GB数据的文件夹上运行Spark MLlib朴素贝叶斯算法。(当我在一个6 GB的文件夹上运行任务时没有任何问题)我正在从google storage读取这个文件夹作为RDD并给出32作为分区参数(我也尝试增加分区)。然后利用TF生成特征向量并在此基础上进行预测。但当我试图在这个文件夹上运行它时,它每次都抛给我ExecutorLostFailure。我尝试了不同的配置,但
我正试图在一个spark项目上使用sbt程序集。sbt编译和打包工作,但当我尝试sbt汇编时,我得到以下错误: plugins.sbt: 完整错误消息:
我在IntelliJ IDE中创建了一个简单的SBT项目,在中具有以下库依赖关系: 目标是导入Spark和Spark的MLLIB,然后创建一个Scala对象,如这里所述。 但是,导入时发生以下错误: org.scala-lang: scala-编译器:(2.11.0,2.11.7)[警告]*org.apache.commons: comons-lang3:(3.3.2,3.0)[警告]*jline
我正在尝试使用数据帧将数据写入宇宙数据库df_u,我已经在写入McgMd中定义了配置。我正在使用火花版本3.2.1 代码- 二手 - 来自数据砖群集的驱动程序日志中的错误 [ 标准错误] - wn在组织上修剪(逻辑计划:30) 在组织上.sql.催化剂.计划.逻辑.分析帮助.转换向下用修剪(分析帮助标度:268) 在组织.apache.spark.sql.catalyst.plans.逻辑.逻辑.