我的应用程序正在使用commons-configuration2和commons-beanutils1。9,但当我尝试将我的应用程序JAR用于spark流媒体作业时,它引发了以下异常。
java.lang.NoSuchmethod odError:org.apache.commons.beanutils.Properties tyUtilsBean.addBean内向者(Lorg/apache/comons/beanutils/Bean内向者;)V在org.apache.commons.configuration2.beanutils.BeanHelper.initBeanUtilsBean(BeanHelper.java:631)在org.apache.commons.configuration2.beanutils.BeanHelper。(BeanHelper.java:89)java.lang.Class.forName0(本地方法)java.lang.Class.for名称(Class.java:264)com.sun.proxy.$Proxy23。(未知源)在sun.reflect.NativeConstructorAccessorImpl.newInstance0(本地方法)在sun.reflect.NativeConstructorAccessorImpl.new实例(NativeConstructorAccessorImpl.java:62)在sun.reflect.委托构建器AccessorImp. newInstance(委托构建器AccessorInp. java: 45)在java. lang.反射。[CNNVD]Constructor. newInstance Constructor. java: 423]Proxy. newProxyInstance(Proxy. java: 739)at org. apache.
这是我的身材。sbt
libraryDependencies ++= Seq(
"org.apache.commons" % "commons-configuration2" % "2.0",
"commons-beanutils" % "commons-beanutils" % "1.9.2",
"com.databricks" % "spark-avro_2.10" % "2.0.1",
"com.databricks" % "spark-csv_2.10" % "1.4.0",
"org.apache.spark" % "spark-sql_2.10" % "1.5.0" % "provided",
"org.apache.spark" % "spark-hive_2.10" % "1.4.1" % "provided",
"org.apache.spark" % "spark-core_2.10" % "1.4.1" % "provided",
"com.amazonaws" % "aws-java-sdk" % "1.10.61",
"org.apache.logging.log4j" % "log4j-api" % "2.6.2",
"org.jasypt" % "jasypt" % "1.9.2",
"commons-codec" % "commons-codec" % "1.8",
"org.apache.kafka" % "kafka-clients" % "0.10.0.0",
"org.apache.spark" % "spark-streaming-kafka_2.10" % "1.6.3",
"org.apache.spark" % "spark-streaming_2.10" % "1.6.3" excludeAll(ExclusionRule(organization = "commons-beanutils"))
)
dependencyOverrides ++= Set(
"com.fasterxml.jackson.core" % "jackson-databind" % "2.4.4",
"org.apache.logging.log4j" % "log4j-api" % "2.6.2",
"org.apache.logging.log4j" % "log4j-core" % "2.6.2",
"org.apache.commons" % "commons-configuration2" % "2.0",
"commons-beanutils" % "commons-beanutils" % "1.9.2"
)
assemblyMergeStrategy in assembly := {
case PathList("META-INF", xs @ _*) => MergeStrategy.discard
case x => MergeStrategy.first
}
如何确保它正在使用commons-beanutils-1.9。2而不是commons-beanutils-1.7或commons-beanutils-core-1.8,它们是hadoop common的一部分?
在项目设置中排除不需要的jar对我来说很有用:
...
.settings(assemblyExcludedJars in assembly := {
val cp = (fullClasspath in assembly).value
val excludes = Set(
"commons-beanutils-core-1.8.0.jar",
"commons-beanutils-1.7.0.jar",
"commons-beanutils-1.8.0.jar"
)
cp.filter{jar => excludes.contains(jar.data.getName)}
})
问题内容: 我需要在iOS下共享/打开一些不同的文件,例如,到iCloud的图像或到iBooks的pdf。文本和图像周围有几个示例,但其他方面则没有。 我创造了自己的; 简化版在这里: 并开始与以下内容共享: 我期望像这样的共享对话: 但是我得到的是: 有什么建议? 问题答案: ** 在Swift 3中使用UIActivityViewController共享PDF ** 我花了很多时间思考如何在从
跟随https://developer.android.com/training/secure-file-sharing/index.html,并能够共享文件在内部目录(/data/data/pack/files/xxx/)的应用程序到客户端应用程序使用file提供程序。 如何将资产文件夹(而不是内部目录)中的文件共享到客户端应用程序。 谢谢
Spark streaming以微批量处理数据。 使用RDD并行处理每个间隔数据,每个间隔之间没有任何数据共享。 但我的用例需要在间隔之间共享数据。 > 单词“hadoop”和“spark”与前一个间隔计数的相对计数 所有其他单词的正常字数。 注意:UpdateStateByKey执行有状态处理,但这将对每个记录而不是特定记录应用函数。 间隔-1 输入: 输出: 火花发生3次,但输出应为2(3-1
问题内容: 两个共享库liba.so和libb.so。liba.so使用libb.so。所有c文件都使用-fPIC编译。链接使用- shared。当我们在liba.so上调用dlopen时,它无法在libb.so中找到符号…我们得到“未定义符号”错误。我们可以dlopen libb.so没有错误。我们知道liba正在找到libb,因为我们没有得到文件未找到错误。删除libb.so时,出现文件未找到
我正在开发将共享数据库的Android应用程序。为此,我在两个应用程序的清单文件中都使用 。当我在添加该 后尝试运行应用程序时,它会显示控制台中的以下错误。 请帮我解决这个问题。
本文向大家介绍Laravel如何使用Redis共享Session,包括了Laravel如何使用Redis共享Session的使用技巧和注意事项,需要的朋友参考一下 一、当系统的访问量上升的时候,使用Redis保存Session可以提高系统的性能,同时也方便多机负载的时候共享Session 1.打开config/database.php。在redis中增加session的连接 2.打开config/