全部產品
Search
文件中心

MaxCompute:Spark2.3.0使用

更新時間:Mar 13, 2026

本文介紹使用Spark2.3.0版本時所需的專用配置資訊。

重要

建議使用Spark 3以上版本。

提交任務

  • 使用Spark用戶端提交任務時,添加以下參數指定版本,用戶端下載

    # 用於開啟kube模式和eventlog
    spark.hadoop.odps.kube.mode=true
    spark.hadoop.odps.cupid.data.proxy.enable=true
    spark.hadoop.odps.cupid.fuxi.shuffle.enable=true
    spark.hadoop.odps.spark.version=spark-2.3.0-odps0.47.0
    spark.hadoop.odps.spark.libs.public.enable=true
    spark.eventLog.enabled=true
    spark.eventLog.dir=/workdir/eventlog/
    
    # 用於讀寫Maxcompute
    spark.sql.catalogImplementation=odps
  • 使用DataWorks節點提交任務時,直接選擇Spark 2.x然後添加以下參數指定版本。

    spark.hadoop.odps.spark.version=spark-2.3.0-odps0.47.0

參數配置

參數名

取值

說明

spark.sql.catalogImplementation

odps

spark.hadoop.odps.cupid.vectorization.enable

建議設定為true

當設定為true時,會使用批讀寫最佳化。

spark.hadoop.odps.input.split.size

預設為256

該參數用於調節讀MaxCompute表的並發度,預設每個分區為256MB。