当前位置: 首页 > 知识库问答 >
问题:

在IntelliJ IDE中将Spark与Scala项目集成时出错

徐翔
2023-03-14

我在IntelliJ IDE中创建了一个简单的SBT项目,在build.sbt中具有以下库依赖关系:

import _root_.sbt.Keys._

name := "untitled"

version := "1.0"

scalaVersion := "2.11.7"

libraryDependencies ++= Seq(
  "org.apache.spark" %% "spark-core" % "1.5.1",
  "org.apache.spark" %% "spark-sql" % "1.5.1" ,
  "org.apache.spark" %% "spark-mllib"  % "1.5.1")

目标是导入Spark和Spark的MLLIB,然后创建一个Scala对象,如这里所述。

但是,导入时发生以下错误:

SBT project import
[warn] Multiple dependencies with the same organization/name but different versions. To avoid conflict, pick one version: [warn] *

org.scala-lang: scala-编译器:(2.11.0,2.11.7)[警告]*org.apache.commons: comons-lang3:(3.3.2,3.0)[警告]*jline: jline:(0.9.94,2.12.1)[警告]*org.scala-lang.modules: scala-parser-combinators_2.11:(1.0.1,1.0.4)[警告]*org.scala-lang.modules: cala-xml_2.11:(1.0.1,1.0.4)[警告]*org.slf4j: slf4j-api:(1.7.10,1.7.2)[警告][失败]net.sourceforge.f2j#arpack_combined_all; 0.1!arpack_combined_all.jar(src):(0ms)[警告] ==== 本地:尝试过[警告]C:\用户\Cezar.ivy2\本地\net.sourceforge.f2j\arpack_combined_all\0.1\srcs\arpack_combined_all-sources.jar[警告] ==== 公共:尝试过[警告]https://repo1.maven.org/maven2/net/sourceforge/f2j/arpack_combined_all/0.1/arpack_combined_all-0.1-sources.jar[警告][失败]javax.xml.bind#jsr173_api;1.0!jsr173_api.jar(doc):(0ms)[警告] ==== 本地:尝试[警告]C:\用户\Cezar.ivy2\本地\javax.xml.bind\jsr173_api\1.0\docs\jsr173_api-javadoc.jar[警告] ==== 公共:尝试[警告]https://repo1.maven.org/maven2/javax/xml/bind/jsr173_api/1.0/jsr173_api-1.0-javadoc.jar[警告][失败]javax.xml.bind#jsr173_api; 1.0!jsr173_api.jar(src):(0ms)[警告] ==== 本地:尝试过[警告]C:\用户\Cezar.ivy2\本地\javax. xml. bind\jsr173_api\1.0\srcs\jsr173_api-Source. jar[警告] ==== 公共:尝试过[警告]https://repo1. maven. org/maven2/javax/xml/bind/jsr173_api/1.0/jsr173_api-1.0-sources.jar[警告]:::::::::::::::::::::::::::::::::::::::::::::: [警告]::失败下载::[警告]::^有关详细信息,请参阅解析消息^::[警告]:::::::::::::::::::::::::::::::::::::::::::::: [警告]:: net. ourceforge. f2j#arpack_combined_all; 0.1!arpack_combined_all. jar(src)[警告]:: javax. xml. bind#jsr173_api; 1.0!jsr173_api. jar(doc)[警告]:: javax. xml. bind#jsr173_api; 1.0!jsr173_api. jar(src)[警告]::::::::::::::::::::::::::::::::::::::::::::::

共有1个答案

池兴邦
2023-03-14

Spark不适用于Scala 2.11。它使用Scala 2.10,因此您需要使用兼容的Scala版本(请参阅http://spark.apache.org/docs/latest/).

或者,正如@eliasah在评论中提到的那样,您可以自己构建Spark。有关如何构建Spark的说明,请访问http://spark.apache.org/docs/latest/building-spark.html

 类似资料:
  • 我为Spark Scala创建了一个maven项目,并编写了一些代码。我必须将它绑定为一个JAR文件,并从边缘节点(shell环境)运行它。但我正面临以下错误。请告知 [ERROR]无法执行目标org.scala-tools:maven-scala-plugin:2.11:compile(default)在项目XYZ上:目标org:Execution default.scala-tools:mav

  • 有什么想法可以解决这个问题吗?在Arch Linux上使用这个版本的Intellij IntelliJ IDEA社区版(Intellij-IDEA-Communition-Edition)2:2017.3.3-1

  • 我正在尝试将SpringCloudSleuth与使用jetty服务器的现有spring应用程序集成。 我补充说 和 启动应用程序时,我应该如何传递记录器属性、日志模式?现在,它不会读取/resources文件夹下的属性文件,也不会生成traceId或spanId。 大多数示例都使用了Spring Boot。需要帮助来弄清楚如何将此与带有码头服务器的Spring应用程序集成。

  • 我有一个使用spark的项目,我想在其中使用Akka。该项目以前工作得很好,但当我将此添加到中时: 并尝试运行该项目,我得到以下错误: [错误](run-main-0)org.apache.spark.sparkException:作业由于阶段失败而中止:任务序列化失败:java.lang.ClassNotFoundException:Scala.Function0 [错误]java.lang.C

  • 我正试图创建我的第一个“Hello World”Scala项目,使用Maven作为构建工具,IntelliJ作为我的IDE。在运行mvn包时,我不断遇到以下错误。 以下是完整的错误:未能执行目标组织。scala工具:maven scala插件:2.15.2:compile(默认)on project couchbase-test-3:wrap:org。阿帕奇。平民执行董事。ExecuteExcep

  • 我想把Nifi flowfile发送到Spark,在Spark中做一些转换,然后再把结果发送回Nifi,这样我就可以在Nifi中进行进一步的操作。我不想写flowfile写到数据库或HDFS,然后触发火花作业。我想直接将flowfile发送到Spark,并直接从Spark接收到NIFI的结果。我尝试在Nifi中使用ExecuteSparkInteractive处理器,但我被卡住了。任何例子都是有帮