object ErrorTest { case class APIResults(status:String, col_1:Long, col_2:Double, ...) def funcA(rows:ArrayBuffer[Row])(implicit defaultFormats:DefaultFormats):ArrayBuffer[APIResults] = { //call some API ang get results and return APIResults ... } // MARK: load properties val props = loadProperties() private def loadProperties(): Properties = { val configFile = new File("config.properties") val reader = new FileReader(configFile) val props = new Properties() props.load(reader) props } def main(args: Array[String]): Unit = { val prop_a = props.getProperty("prop_a") val session = Context.initialSparkSession(); import session.implicits._ val initialSet = ArrayBuffer.empty[Row] val addToSet = (s: ArrayBuffer[Row], v: Row) => (s += v) val mergePartitionSets = (p1: ArrayBuffer[Row], p2: ArrayBuffer[Row]) => (p1 ++= p2) val sql1 = s""" select * from tbl_a where ... """ session.sql(sql1) .rdd.map{row => {implicit val formats = DefaultFormats; (row.getLong(6), row)}} .aggregateByKey(initialSet)(addToSet,mergePartitionSets) .repartition(40) .map{case (rowNumber,rows) => {implicit val formats = DefaultFormats; funcA(rows)}} .flatMap(x => x) .toDF() .write.mode(SaveMode.Overwrite).saveAsTable("tbl_b") } }
Caused by: java.lang.NoClassDefFoundError: Could not initialize class staging_jobs.ErrorTest$
at staging_jobs.ErrorTest$$anonfun$main$1.apply(ErrorTest.scala:208)
at staging_jobs.ErrorTest$$anonfun$main$1.apply(ErrorTest.scala:208)
at scala.collection.Iterator$$anon$11.next(Iterator.scala:409)
at scala.collection.Iterator$$anon$12.nextCur(Iterator.scala:434)
at scala.collection.Iterator$$anon$12.hasNext(Iterator.scala:440)
at scala.collection.Iterator$$anon$11.hasNext(Iterator.scala:408)
at org.apache.spark.sql.catalyst.expressions.GeneratedClass$GeneratedIterator.processNext(Unknown Source)
at org.apache.spark.sql.execution.BufferedRowIterator.hasNext(BufferedRowIterator.java:43)
at org.apache.spark.sql.execution.WholeStageCodegenExec$$anonfun$8$$anon$1.hasNext(WholeStageCodegenExec.scala:377)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$SingleDirectoryWriteTask.execute(FileFormatWriter.scala:243)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask$3.apply(FileFormatWriter.scala:190)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$$anonfun$org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask$3.apply(FileFormatWriter.scala:188)
at org.apache.spark.util.Utils$.tryWithSafeFinallyAndFailureCallbacks(Utils.scala:1341)
at org.apache.spark.sql.execution.datasources.FileFormatWriter$.org$apache$spark$sql$execution$datasources$FileFormatWriter$$executeTask(FileFormatWriter.scala:193)
... 8 more
我遇到过和你一样的问题。我定义了一个方法convert
外部main
方法。当我在main
中与dataframe.rdd.map{x=>convert(x)}
一起使用时,发生了noClassDefoundError:Could not initialize class test$
。
但是当我在main
方法中使用函数对象convertor
(与convert
方法相同的代码)时,没有发生错误。
我用的是Spark2.1.0,Scala2.11,好像是spark的一个bug?
我试图运行火花作业,基本上加载数据在卡桑德拉表。但它也产生了以下错误。
Spark 编程的第一步是需要创建一个 SparkContext 对象,用来告诉 Spark 如何访问集群。在创建 SparkContext 之前,你需要构建一个 SparkConf 对象, SparkConf 对象包含了一些你应用程序的信息。 val conf = new SparkConf().setAppName(appName).setMaster(master) new SparkCon
UserFacade: 用户:
是的...已经讨论了很多了。 但是,有很多不明确的地方,提供了一些答案...包括在jars/executor/driver配置或选项中重复jar引用。 类路径的影响 驱动程序 执行程序(用于正在运行的任务) 两者 一点也不 对于任务(对每个执行者) 用于远程驱动程序(如果在群集模式下运行) 方法 方法 或 或 不要忘记,spark-submit的最后一个参数也是一个.jar文件。 如果我从文档中猜
我试图在Python中初始化火花上下文变量。 但我得到了以下错误: py4j。协议Py4JJavaError:调用None时出错。组织。阿帕奇。火花应用程序编程接口。JAVAJavaSparkContext.:JAVAlang.NoClassDefFoundError:无法初始化类组织。阿帕奇。火花内部的配置。组织上的包$ 。阿帕奇。火花斯帕克孔夫。在组织上验证设置(SparkConf.scala