本文介紹使用Spark2.3.0版本時所需的專用配置資訊。
重要
建議使用Spark 3以上版本。
提交任務
使用Spark用戶端提交任務時,添加以下參數指定版本,用戶端下載。
# 用於開啟kube模式和eventlog spark.hadoop.odps.kube.mode=true spark.hadoop.odps.cupid.data.proxy.enable=true spark.hadoop.odps.cupid.fuxi.shuffle.enable=true spark.hadoop.odps.spark.version=spark-2.3.0-odps0.47.0 spark.hadoop.odps.spark.libs.public.enable=true spark.eventLog.enabled=true spark.eventLog.dir=/workdir/eventlog/ # 用於讀寫Maxcompute spark.sql.catalogImplementation=odps使用DataWorks節點提交任務時,直接選擇Spark 2.x然後添加以下參數指定版本。
spark.hadoop.odps.spark.version=spark-2.3.0-odps0.47.0
參數配置
參數名 | 取值 | 說明 |
|
| |
| 建議設定為 | 當設定為true時,會使用批讀寫最佳化。 |
| 預設為 | 該參數用於調節讀MaxCompute表的並發度,預設每個分區為256MB。 |