Serverless Spark支援多個內建特有參數,您可以查閱這些參數的名稱、描述及其使用情境,以便靈活配置任務運行環境並最佳化任務執行。
參數名 | 參數描述 | 適用情境 |
spark.emr.serverless.user.defined.jars | 將上傳的JAR包添加至Serverless Spark的Driver和Executor的ClassPath中。
| 通過Spark-Submit工具、批任務以及Airflow Serverless Spark Operator提交Spark任務時,或在建立會話資源時,可將儲存於OSS上的自訂JAR包添加至Spark Driver和Executor。 |
spark.emr.serverless.fusion | 設定由Kyuubi和Livy啟動的會話或批處理任務是否啟用Fusion。取值如下:
| 支援通過任務或會話的Spark配置參數來決定是否啟用Fusion。 |
spark.emr.serverless.environmentId | 運行環境ID,用於配置計算資源使用的運行環境。 | 通過Airflow和Spark-Submit工具提交Serverless Spark任務時,可以指定運行環境,預設安裝第三方依賴庫。 |
spark.emr.serverless.network.service.name | 網路連接名稱,用於配置計算資源以實現與其他VPC內資料來源的網路互連。 | 在提交Serverless Spark任務時,可以添加網路連接,以支援訪問其他虛擬私人雲端(VPC)下的資料來源。 |
spark.emr.serverless.excludedModules | 移除Serverless Spark內建的lib。
| 通常用於使用者需要使用自訂JAR包的情境。通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator、Kyuubi、Livy提交Spark任務,或建立會話資源時,應移除Serverless Spark內建的庫。 |
spark.emr.serverless.kyuubi.engine.queue | 工作空間隊列名稱,用於配置Kyuubi啟動的Spark Application所在的隊列。 | 支援在Kyuubi配置欄中進行設定,或在JDBC URL串連時指定。 |
spark.emr.serverless.jr.timeout | 設定任務的最大運行時間長度(單位:秒),逾時後將自動終止該任務。預設值為空白,表示不設定逾時限制。 取值範圍為-1至2147483647的整數。其中,-1或0表示不設定逾時時間。 | 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定任務逾時時間。 |
spark.emr.serverless.fusion.enabled | 設定拉起的Serverless Spark引擎時,是否開啟Fusion。取值如下:
| 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定是否開啟Fusion加速。 |
spark.emr.serverless.mount.nas.enabled | 設定是否啟用 NAS 目錄掛載至 Spark Driver。掛載後還需要通過
| 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定是否掛載納管NAS檔案目錄至Spark Driver,開啟後Driver可以讀寫掛載的NAS檔案。 |
spark.emr.serverless.mount.nas.volume | 指定待掛載的納管 NAS 目錄 ID。 支援的引擎版本:
| 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定掛載指定納管NAS檔案目錄。 |
spark.emr.serverless.mount.nas.executor | 設定是否啟用 NAS 目錄掛載至所有 Spark Executor。
| 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定是否掛載納管NAS檔案目錄至Spark Executor,開啟後Executor可以讀寫掛載的NAS檔案。 |
spark.emr.serverless.mount.oss.enabled | 設定是否啟用 OSS 目錄掛載至 Spark Driver。 掛載後還需要通過
| 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定是否掛載納管OSS檔案目錄至Spark Driver,開啟後Driver可以讀寫掛載的OSS檔案。 |
spark.emr.serverless.mount.oss.volume | 指定待掛載的納管 OSS 目錄 ID。 | 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定掛載指定納管OSS檔案目錄。 |
spark.emr.serverless.mount.oss.executor | 設定是否啟用 OSS 目錄掛載至所有 Spark Executor。取值如下:
| 通過Serverless Spark控制台、Spark-Submit工具、批任務、Airflow Serverless Spark Operator提交任務時,設定是否掛載納管OSS檔案目錄至Spark Executor,開啟後Executor可以讀寫掛載的OSS檔案。 |
spark.emr.serverless.templateId | 用於指定Spark Application的預設配置模板ID,通過引用預定義的工作空間模板,簡化任務提交時的參數配置。 模板ID可以在頁面擷取。例如, | 僅支援Spark-Submit工具。 |
spark.emr.serverless.livy.config.mode | 用於控制通過Livy Gateway提交Spark任務時,是否使用Livy Gateway配置的
| 當您需要完全自訂Spark任務的配置,可以將該參數設定為 |
spark.emr.serverless.tag.xxxx | Livy提交的批任務標籤,通過 | 通過使用該參數,可為Livy Gateway提交的Spark任務添加標籤,以便在後續的任務歷史中通過標籤對任務進行篩選。 |