当前位置: 首页 > 工具软件 > spark-pac4j > 使用案例 >

spark conf

何玉韵
2023-12-01

通过设置SPARK_CONF_DIR,可以改默认的sparkconf目录
1、Spark properties :设置application的参数,可以通过SparkConf和Javasystem properties
2、环境变量:conf/spark-env.sh
3、日志:log4j.properties
4、例子

./bin/spark-submit --name "My app" --master local[4] --conf spark.eventLog.enabled=false
  --conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" myApp.jar

5、两种参数类型
(1)部署参数:spark.driver.memory和spark.executor.instances等,这些参数不受sparkconf和 cluster manager and deploy mode 影响,通过spark-defaults.conf和spark-submit设置
(2)运行时参数:spark.task.maxFailures

6、spark properties
ÿ

 类似资料:

相关阅读

相关文章

相关问答