当前位置: 首页 > 知识库问答 >
问题:

如何使用*local*包运行spark shell?

岳君之
2023-03-14
$SPARK_HOME/bin/spark-shell --packages com.databricks:spark-csv_2.11:1.4.0

共有1个答案

许琛
2023-03-14

如果主/工作者上存在JAR,只需在spark-submit中的类路径上指定它们:

spark-shell \
spark.driver.extraClassPath="/path/to/jar/spark-csv_2.11.jar" \
spark.executor.extraClassPath="spark-csv_2.11.jar"

如果JAR仅存在于主服务器中,并且您希望将它们发送给工作服务器(仅适用于客户端模式),则可以添加--jars标志:

spark-shell \
spark.driver.extraClassPath="/path/to/jar/spark-csv_2.11.jar" \
spark.executor.extraClassPath="spark-csv_2.11.jar" \
--jars "/path/to/jar/jary.jar:/path/to/other/other.jar"

更详细的答案,请参见Add jars to a Spark Job-spark-submit

 类似资料:
  • 问题内容: 我一直在关注这个快速入门:https : //devcenter.heroku.com/articles/getting-started-with- python 但是想知道如何让“ heroku local”与python 3.5.1一起运行?我已经更改了runtime.txt,将其设置为python 3.5.1,但仍然会加载2.7的依赖项。 谢谢! 问题答案: 解决了!您也可以定义

  • 问题内容: 我在文件MyClass.java文件中有一个名为MyClass的类(下面提到的代码) 我在上课 但是我正在尝试使用 要么 我遇到错误 但是,如果我省略了软件包名称,则可以运行该程序。我要去哪里错了? 问题答案: 确保您位于包文件夹(已编译的类文件所在的文件夹)的父目录中,并执行以下命令: 下面是一个示例文件结构: 在上面的示例结构中,您将必须从“ bin”目录中执行命令。 另外,将类定

  • 请帮帮我.我创建了两个包含不同类的包。我的目的是并行运行这两个包(就像两个浏览器将打开,它应该并行运行),这些包中的类应该顺序运行。为此,我尝试使用两个xml。如下面所示,但它仍按顺序运行: null 因此,每个in类在运行时打开浏览器,然后在该类结束后关闭。 我希望我的com.testsuites.hdfs和com.testsuites.hive并行运行,并且里面的类应该顺序运行。请为我提出一个

  • 我们有一个SpringApplication,它可以在默认的Application Context下运行,但是我们有一个场景,在这个场景中我们需要刷新上下文,而默认上下文不允许我们这样做。我已经更新了我们的主Application类,如下所示: 使用此代码,调用应用程序。运行(args)会导致以下堆栈跟踪: 逐步完成SpringApplication。run(),我注意到上下文的BeanFacto

  • 我有一个Gradle项目,我正试图用它来运行Jetty。我的文件如下所示。 建筑格拉德尔 我试图从命令行运行这个项目,我使用的命令是: > 应构建项目,并输出以下内容: Jetty插件已被弃用,计划在Gradle 4.0中删除。考虑使用Gretty(https://github.com/akhikhl/gretty)而不是插件。在build_6xw4u3pr68h02k136x2vqowd。运行(

  • 当我尝试运行Phoenix的命令时,我得到 其他什么都没发生。我也无法让松鼠工作(当我单击“列表驱动程序”时,它会冻结)。 我没有将的类路径中,因为我不知道它指的是什么。 我使用的是HBase 0.98.6.1-Hadoop2、Phoenix 4.2.1和hadoop 2.2.0。