全部產品
Search
文件中心

MaxCompute:Spark3.1.1使用

更新時間:Mar 13, 2026

本文介紹使用Spark3.1.1版本時所需的專用配置資訊。

提交任務

  • 使用Spark用戶端提交任務,添加以下參數指定版本,用戶端下載

    # 用於開啟kube模式和eventlog
    spark.hadoop.odps.kube.mode=true
    spark.hadoop.odps.cupid.data.proxy.enable=true
    spark.hadoop.odps.cupid.fuxi.shuffle.enable=true
    spark.hadoop.odps.spark.version=spark-3.1.1-odps0.47.0
    spark.hadoop.odps.spark.libs.public.enable=true
    spark.eventLog.enabled=true
    spark.eventLog.dir=/workdir/eventlog/
    
    # 用於讀寫MaxCompute
    spark.sql.defaultCatalog = odps
    spark.sql.catalog.odps = org.apache.spark.sql.execution.datasources.v2.odps.OdpsTableCatalog
    spark.sql.sources.partitionOverwriteMode = dynamic
    spark.sql.extensions = org.apache.spark.sql.execution.datasources.v2.odps.extension.OdpsExtensions
  • 使用叢集模式運行PySpark作業,需添加以下參數使用Python3。

    spark.hadoop.odps.cupid.resources = public.python-3.7.9-ucs4.tar.gz
    spark.pyspark.python = ./public.python-3.7.9-ucs4.tar.gz/python-3.7.9-ucs4/bin/python3
  • 使用DataWorks節點提交任務,直接選擇Spark 3.x即可。

參數配置

參數名

取值

說明

spark.sql.defaultCatalog

配置值為odps

spark.sql.catalog.odps

配置值為org.apache.spark.sql.execution.datasources.v2.odps.OdpsTableCatalog

spark.sql.sources.partitionOverwriteMode

配置值為dynamic

spark.sql.extensions

配置值為org.apache.spark.sql.execution.datasources.v2.odps.extension.OdpsExtensions

spark.sql.catalog.odps.enableNamespaceSchema

預設值為false

如果MaxCompute專案開啟Schema級文法開關,需要設定為true。

spark.sql.catalog.odps.enableVectorizedReader

預設值為true

開啟向量化讀。

spark.sql.catalog.odps.enableVectorizedWriter

預設值為true

開啟向量化寫。

spark.sql.catalog.odps.splitSizeInMB

預設值為256

該參數用於調節讀MaxCompute表的並發度,預設每個分區為256MB。