我试图构建一个具有spark依赖关系的非常基本的scala脚本。但我不能用它做罐子。
import Dependencies._
lazy val root = (project in file(".")).
settings(
inThisBuild(List(
organization := "com.example",
scalaVersion := "2.12.1",
version := "0.1.0-SNAPSHOT"
)),
name := "Hello",
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.0-SNAPSHOT",
resolvers += Resolver.mavenLocal
)
package example
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
object Hello {
def main(args: Array[String]) {
val logFile = "/Users/dhruvsha/Applications/spark/README.md"
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val logData = sc.textFile(logFile, 2).cache()
val numAs = logData.filter(line => line.contains("a")).count()
val numBs = logData.filter(line => line.contains("b")).count()
println(s"Lines with a: $numAs, Lines with b: $numBs")
sc.stop()
}
}
我的scala源代码在:
/exampleapp/main/scala/example/hello.scala
项目名为exampleapp。
版本:=“1.0” scalaVersion:=“2.11.8” ivyScala:=ivyScala.Value map{_.copy(overrideScalaVersion=true)} libraryDependencies+=“org.apache.spark”%%“Spark-Core”%“2.1.0” 当我尝试用sbt组装jar时,我试图将spark引入我的开发环境,但它失败了,并且
使用IntelliJ最新的scala插件sbt 13.8和scala 2.11.7的新sbt项目,我尝试添加一个库-akka 2.4.2。在此之后,我简单地添加 [信息]解析org.scala-sbt#testing;0.13.8... [信息]解析org.scala-sbt#test-agent;0.13.8... [信息]解析org.scala-SBT#test-interface;1.0..
我有一个Play应用程序,当我运行时,我得到一个错误,如下所示: 但实际上,这个插件的路径是而不是失败的试用。 project/plugin.sbt如下所示: 请指教。
我正在遵循这个链接中的例子。我已经从这里下载了法国罐子。当我这样称呼它时, 这是虫子吗?