本文介紹使用Spark3.1.1版本時所需的專用配置資訊。
提交任務
使用Spark用戶端提交任務,添加以下參數指定版本,用戶端下載。
# 用於開啟kube模式和eventlog spark.hadoop.odps.kube.mode=true spark.hadoop.odps.cupid.data.proxy.enable=true spark.hadoop.odps.cupid.fuxi.shuffle.enable=true spark.hadoop.odps.spark.version=spark-3.1.1-odps0.47.0 spark.hadoop.odps.spark.libs.public.enable=true spark.eventLog.enabled=true spark.eventLog.dir=/workdir/eventlog/ # 用於讀寫MaxCompute spark.sql.defaultCatalog = odps spark.sql.catalog.odps = org.apache.spark.sql.execution.datasources.v2.odps.OdpsTableCatalog spark.sql.sources.partitionOverwriteMode = dynamic spark.sql.extensions = org.apache.spark.sql.execution.datasources.v2.odps.extension.OdpsExtensions使用叢集模式運行PySpark作業,需添加以下參數使用Python3。
spark.hadoop.odps.cupid.resources = public.python-3.7.9-ucs4.tar.gz spark.pyspark.python = ./public.python-3.7.9-ucs4.tar.gz/python-3.7.9-ucs4/bin/python3使用DataWorks節點提交任務,直接選擇Spark 3.x即可。
參數配置
參數名 | 取值 | 說明 |
| 配置值為 | |
| 配置值為 | |
| 配置值為 | |
| 配置值為 | |
| 預設值為 | 如果MaxCompute專案開啟Schema級文法開關,需要設定為true。 |
| 預設值為 | 開啟向量化讀。 |
| 預設值為 | 開啟向量化寫。 |
| 預設值為 | 該參數用於調節讀MaxCompute表的並發度,預設每個分區為256MB。 |