通过设置SPARK_CONF_DIR,可以改默认的sparkconf目录
1、Spark properties :设置application的参数,可以通过SparkConf和Javasystem properties
2、环境变量:conf/spark-env.sh
3、日志:log4j.properties
4、例子
./bin/spark-submit --name "My app" --master local[4] --conf spark.eventLog.enabled=false
--conf "spark.executor.extraJavaOptions=-XX:+PrintGCDetails -XX:+PrintGCTimeStamps" myApp.jar
5、两种参数类型
(1)部署参数:spark.driver.memory和spark.executor.instances等,这些参数不受sparkconf和 cluster manager and deploy mode 影响,通过spark-defaults.conf和spark-submit设置
(2)运行时参数:spark.task.maxFailures
6、spark properties
ÿ