我正在用spark-submit在纱线集群模式下运行一个spark作业。为了在运行时提交输入和输出文件路径,我尝试加载一个包含输入和输出路径的属性文件。
属性文件:input.properties
spark.myapp.input /input/path spark.myapp.output /output/path
`spark-submit --class Property --master yarn-cluster prop.jar --properties-file input.properties`
import org.apache.spark.SparkConf import org.apache.spark.SparkContext import java.io.FileInputStream import collection.JavaConversions._ import java.util.Properties; object Property { def main(args: Array[String]) { val conf = new SparkConf().setAppName("myApp"); val sparkContext = new SparkContext(conf); val input=sparkContext.getConf.get("spark.myapp.input") println(input) sparkContext.stop; } }
ERROR yarn.ApplicationMaster: User class threw exception: java.util.NoSuchElementException: spark.myapp.input
如果您使用的是纱线,请使用--files input.properties
。我也有同样的问题,它解决了我的问题。
抛出错误 到目前为止,我在Hadoop中只有start-dfs.sh,在Spark中并没有真正配置任何内容。我是否需要使用YARN集群管理器来运行Spark,以便Spark和Hadoop使用相同的集群管理器,从而可以访问HDFS文件? 我尝试按照tutorialspoint https://www.tutorialspoint.com/Hadoop/hadoop_enviornment_setup
“属性”选项在命令行上由其名称及其对应的属性表示,类似于java属性文件的语法。 考虑以下示例,如果我们传递-DrollNo = 1 -Dclass = VI -Dname = Mahesh等选项,我们应该将每个值作为属性进行处理。 让我们看看实施逻辑的实际应用。 例子 (Example) CLITester.java import java.util.Properties; import org
Option对象用于表示传递给命令行程序的Option。 以下是Option对象拥有的各种属性。 Sr.No. 名称(类型)和描述 1 opt (String) Option的标识字符串。 2 longOpt (String) 别名和更具描述性的标识字符串。 3 description (String) 选项功能说明。 4 required (boolean) 用于检查选项是否必须出现在命令行上的
我正在从Cloudera包裹中运行带有Spark 0.9.0的CDH 4.4。 我有一堆Avro文件是通过Pig的AvroStorage UDF创建的。我想在 Spark 中加载这些文件,使用通用记录或载入 Avro 文件的架构。到目前为止,我已经尝试过这个: 这适用于一个文件,但它不能扩展——我将所有数据加载到本地RAM中,然后从那里跨spark节点分发。
我尝试将spark应用程序驱动程序/执行程序日志发送到kafka topic。它在Eclipse中工作 在部署群集模式时,它会显示 ClassNotFoundException。 我添加了,,,,和maven,但它仍然显示 组织。阿普切。Kafka。log4jappender类NotFoundException。 在服务器中,运行jar自身的spark程序中并没有与Kafka相关的jar。 请告诉