当前位置: 首页 > 知识库问答 >
问题:

在Intellij中运行Spark时出错:“对象apache不是包org的成员”

顾超
2023-03-14

我正在Intellij上运行一个Spark程序,并得到以下错误:“object apache不是包org的成员”。

我在代码中使用了这些导入语句:

import org.apache.spark.SparkContext  
import org.apache.spark.SparkContext._  
import org.apache.spark.SparkConf

上面的导入语句也没有在sbt提示符上运行。相应的库似乎丢失了,但我不确定如何复制相同的库以及在哪个路径上。

共有2个答案

於功
2023-03-14

距离上一个答案大约有5年了,但我有同样的问题,这里提到的答案不起作用。所以,希望这个答案适用于那些发现自己处于与我相同位置的人。

我能够从sbt shell运行scala程序,但在Intellij中无法运行。这是我为解决问题所做的:

  1. 已导入生成。sbt文件作为项目

文件-

文件-

单击“查看”-

项目应成功加载。重建项目。

羊舌成周
2023-03-14

确保您在SBT中有这样的条目:

scalaVersion := "2.11.8"
libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "2.1.0", 
  "org.apache.spark" %% "spark-sql" % "2.1.0" 
)

然后通过启用“自动导入”或单击SBT面板上的刷新按钮手动执行,确保IntelliJ知道这些库。

 类似资料:
  • 我正在编译一个scala应用程序,我发现了标题中键入的错误。 Scala版本:Scala 2.11.8 Spark版本:Spark 1.6.1 Intellij:20161.3 libraryDependencies+=“org.apache.spark”%%“Spark-core”%“1.6.1” scala和spark版本之间可能不兼容?

  • 我正在尝试用IntelliJ IDEA打开Apache Spark源代码。 我在Spark源代码根目录上打开了pom.xml。 项目树显示在项目工具窗口中。 但是,当我打开一个源文件时,比如org.apache.spark.deploy.yarn.ClientBase.scala,编辑器滚动条上会显示很多红色标记。这是“无法解决符号”错误。即使它也无法解决StringOps.format. 我怎么

  • 我正在尝试在一个大约14 GB数据的文件夹上运行Spark MLlib朴素贝叶斯算法。(当我在一个6 GB的文件夹上运行任务时没有任何问题)我正在从google storage读取这个文件夹作为RDD并给出32作为分区参数(我也尝试增加分区)。然后利用TF生成特征向量并在此基础上进行预测。但当我试图在这个文件夹上运行它时,它每次都抛给我ExecutorLostFailure。我尝试了不同的配置,但

  • 我正试图在一个spark项目上使用sbt程序集。sbt编译和打包工作,但当我尝试sbt汇编时,我得到以下错误: plugins.sbt: 完整错误消息:

  • 我在IntelliJ IDE中创建了一个简单的SBT项目,在中具有以下库依赖关系: 目标是导入Spark和Spark的MLLIB,然后创建一个Scala对象,如这里所述。 但是,导入时发生以下错误: org.scala-lang: scala-编译器:(2.11.0,2.11.7)[警告]*org.apache.commons: comons-lang3:(3.3.2,3.0)[警告]*jline

  • 我正在尝试使用数据帧将数据写入宇宙数据库df_u,我已经在写入McgMd中定义了配置。我正在使用火花版本3.2.1 代码- 二手 - 来自数据砖群集的驱动程序日志中的错误 [ 标准错误] - wn在组织上修剪(逻辑计划:30) 在组织上.sql.催化剂.计划.逻辑.分析帮助.转换向下用修剪(分析帮助标度:268) 在组织.apache.spark.sql.catalyst.plans.逻辑.逻辑.