--conf 'spark.driver.extraJavaOptions=-Dapp.id=apollo的app.id -Denv=fat -Dapollo.cluster=fat -Dfat_meta=apollo的meta地址' --conf 'spark.executor.extraJavaOptions=-Dapp.id=apollo的app.id -Denv=fat -Dapollo.cluster=fat -Dfat_meta=apollo的meta地址'
在spark的提交命令中,增加如上兩行,即可實現spark從apollo配置中心中讀取自己的數據
// 加載默認命名空間配置
val config = ConfigService.getAppConfig()
// 獲取對應key的值
val value = config.getProperty(key, 默認值)
?參看Apollo