当前位置: 首页 > 知识库问答 >
问题:

Scala:项目包含Akka时的Spark异常

燕涵容
2023-03-14

我有一个使用spark的项目,我想在其中使用Akka。该项目以前工作得很好,但当我将此添加到build.sbt中时:

libraryDependencies += "com.typesafe.akka" %% "akka-actor" % "2.5.3"

并尝试运行该项目,我得到以下错误:

[错误](run-main-0)org.apache.spark.sparkException:作业由于阶段失败而中止:任务序列化失败:java.lang.ClassNotFoundException:Scala.Function0
[错误]java.lang.ClassNotFoundException:Scala.Function0
[错误]在sbt.classpath.ClasspathFilter.LoadClass(ClassLoaders.Scala:63)
[错误]在java.lang.ClassLoader.LoadClass(ClassLoader.java:357)
[错误]在[错误]在scala.collection.abstractTraversable.map(traversable.scala:104)
[错误]在com.twitter.chill.kryobase。(kryobase.scala:41)

有什么想法吗?

共有1个答案

宣瀚
2023-03-14

有这样的建筑.sbt

scalaVersion := "2.11.11"
libraryDependencies += "com.typesafe.akka" %% "akka-actor" % "2.5.3"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.2.0"

Akka中的HelloWorld和Spark中的WordCount都工作得很好。Akka可以使用2.10-2.12,但是Spark可以使用2.10-2.11。没有代码示例和build.sbt就很难说更多。

 类似资料:
  • 我在网上搜索并找到了以下资源,我尝试了这些资源(请参见pom),但无法工作: 1)Spark用户邮件列表:http://apache-spark-user-list.1001560.n3.nabble.com/packaging-a-spark-job-using-maven-td5615.html 2)如何打包spark scala应用程序 我有一个简单的例子来演示这个问题,一个简单的1类项目(

  • 我有一个监督Akka演员,它使用路由器将消息转发给工人演员。 我有一个封装了管理程序的类,当我调用该类的方法时,它“要求”管理程序做一些事情,然后我使用< code > await . result(the future)等待结果(没有结果我无法继续)。 如果worker抛出异常,我想重新启动抛出异常的worker,我想让调用包装类的代码捕获异常。 我向路由器构造函数传递了一个< code>One

  • 输入DF: 我试图找到运行时间戳的差异就main_id 输出DF: 已尝试的代码: 我得到的差异函数的错误,有一种方法来实现这一点。任何建议请。

  • 在Akka中有没有什么方法可以像在Erlang中一样用{packet,4}来实现包帧?数据包如下所示:

  • 我在IntelliJ IDE中创建了一个简单的SBT项目,在中具有以下库依赖关系: 目标是导入Spark和Spark的MLLIB,然后创建一个Scala对象,如这里所述。 但是,导入时发生以下错误: org.scala-lang: scala-编译器:(2.11.0,2.11.7)[警告]*org.apache.commons: comons-lang3:(3.3.2,3.0)[警告]*jline

  • 在maven存储库http://mvnrepository.com/artifact/org.apache.spark中,apache-spark版本1.4.1有两种版本。 SPARK-*2.10和SPARK-*2.11 这些似乎是Scala版本。如果我使用java发行版部署apache-spark,那么哪一个是首选?