我创建了一个使用jackson 2.7.5的优步jar。我使用的是spark 1.6.2(因为我使用的是scala-2.10)。然而,每当我尝试提交我的spark作业时,我都会遇到错误,即在更新的jackson版本的功能开关上找不到任何方法。
我会假设一个uber-jar会允许我捆绑我自己的依赖项,即使它们与使用某种委托类加载器来隔离冲突需要运行的火花相冲突。不是这样吗?如果不是,我该如何解决这个问题?
我知道java有这个答案。lang.NoSuchMethodError Jackson数据绑定和Spark,基本上建议使用sparks Jackson而不是您自己的,但Spark的Jackson现在已经很旧了,我有依赖于新Jackson功能的代码
如果使用--conf
spark.driver.extraClassPath
和spark.executor.extraClassPath
是可能的。
请看我的回答。
您需要隐藏依赖项,以便两个版本可以共存。将更改较新版本的路径名以解决冲突。
如果您正在使用Maven:
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<properties>
<maven.compiler.source>1.8</maven.compiler.source>
<maven.compiler.target>1.8</maven.compiler.target>
</properties>
<groupId><!-- YOUR_GROUP_ID --></groupId>
<artifactId><!-- YOUR_ARTIFACT_ID --></artifactId>
<version><!-- YOUR_PACKAGE_VERSION --></version>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version><!-- YOUR_SPARK_VERSION --></version>
<scope>provided</scope>
</dependency>
<!-- YOUR_DEPENDENCIES -->
</dependencies>
<build>
<plugins>
<plugin>
<groupId>net.alchim31.maven</groupId>
<artifactId>scala-maven-plugin</artifactId>
<executions>
<execution>
<goals>
<goal>compile</goal>
<goal>testCompile</goal>
</goals>
</execution>
</executions>
<configuration>
<scalaVersion><!-- YOUR_SCALA_VERSION --></scalaVersion>
</configuration>
</plugin>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
<configuration>
<transformers>
<transformer implementation="org.apache.maven.plugins.shade.resource.ManifestResourceTransformer">
<mainClass><!-- YOUR_APPLICATION_MAIN_CLASS --></mainClass>
</transformer>
</transformers>
<filters>
<filter>
<artifact>*:*</artifact>
<excludes>
<exclude>META-INF/maven/**</exclude>
<exclude>META-INF/*.SF</exclude>
<exclude>META-INF/*.DSA</exclude>
<exclude>META-INF/*.RSA</exclude>
</excludes>
</filter>
</filters>
<relocations>
<relocation>
<pattern>com</pattern>
<shadedPattern>repackaged.com.google.common</shadedPattern>
<includes>
<include>com.google.common.**</include>
</includes>
</relocation>
</relocations>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
资料来源:https://cloud.google.com/dataproc/docs/guides/manage-spark-dependencies
问题内容: 假设我有四个项目: 项目A(依赖于B和D) 项目B(依赖于D) 项目C(依赖于D) 项目D 在这种情况下,如果我运行项目A,则Maven将正确地解决对D的依赖关系。如果我理解正确,则Maven始终以最短的路径获取依赖关系。由于D是A的直接依赖项,因此将使用B内指定的D而不是D。 但是现在假设这种结构: 项目A(依赖于B和C) 项目B(依赖于D) 项目C(依赖于D) 项目D 在这种情况下
由一些模块组成的maven项目。我的一个模块正在使用google版本的guava依赖项。现在,我正在我的项目中集成另一个模块,该模块也使用guava但版本。 因此,我希望新模块使用guava版本,而其余项目使用guava版本。我尝试将guava的添加到新模块中,但没有成功。 更新:@Guillaume Darmont的答案为不同的模块解决了问题。但现在我的问题是,新模块有两个依赖项,其中一个使用g
错误为:java.security.NoSuchProviderException:JCE无法验证提供程序BC。注意,我已经添加了这段代码:security.addProvider(new BouncyCastleProvider()); 这在使用spring boot embedded tomcat时可以很好地工作,但在导出到运行在wildfly服务器上的war文件时就不行了。 下面是我如何宣布
我正在做的项目需要同时使用Elasticsearch和一个依赖项(我没有设计也没有指定它的设计),该依赖项使用Lucene,这两个依赖项之间存在版本冲突。当我尝试启动项目时,下面的错误被吐出来 任何关于是否可以解决而不能够规定依赖或弹性搜索的设计的想法?
我正在Java EE6平台上开发一个企业应用程序。IDE是NetBeans 7.2,应用服务器是GlassFish 3.1.2.2。 业务逻辑必须使用一个库(具体来说是HBase-RDF)来处理其核心中的一些任务。最初的HBase-RDF代码依赖于许多包,我相信GlassFish已经使用了它们的新版本。例如,我可以看到javax.xml、javax.activation、com.sun.jerse
我试图向spark提交一个jar,但我的jar包含与spark内置jar(snakeyml和其他)冲突的依赖项。 我使用以下命令提交: 但我还是有同样的例外