全部产品
Search
文档中心

云原生数据仓库AnalyticDB:CreateApsKafkaHudiJob - 创建APS Kafka入湖任务

更新时间:Jan 14, 2026

创建APS Kafka入湖任务。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

调试

授权信息

下表是API对应的授权信息,可以在RAM权限策略语句的Action元素中使用,用来给RAM用户或RAM角色授予调用此API的权限。具体说明如下:

  • 操作:是指具体的权限点。

  • 访问级别:是指每个操作的访问级别,取值为写入(Write)、读取(Read)或列出(List)。

  • 资源类型:是指操作中支持授权的资源类型。具体说明如下:

    • 对于必选的资源类型,用前面加 * 表示。

    • 对于不支持资源级授权的操作,用全部资源表示。

  • 条件关键字:是指云产品自身定义的条件关键字。

  • 关联操作:是指成功执行操作所需要的其他权限。操作者必须同时具备关联操作的权限,操作才能成功。

操作

访问级别

资源类型

条件关键字

关联操作

adb:CreateApsKafkaHudiJob

none

*DBClusterLakeVersion

acs:adb:{#regionId}:{#accountId}:dbcluster/{#DBClusterId}

请求参数

名称

类型

必填

描述

示例值

DBClusterId

string

集群 ID。

说明

调用 DescribeDBClusters 接口可以查看目标地域下所有 AnalyticDB MySQL 湖仓版(3.0)集群的集群 ID。

amv-bp11q28kvl688****

RegionId

string

地域 ID。

cn-hangzhou

PartitionSpecs

array<object>

分区信息。

object

"SourceColumn": 源端分区字段名。 "Strategy": 策略。

  1. 按照格式化日期: "ParseAsTimeAndFormat"。

  2. 指定分区字段:"CustomSpecify"。 � "SourceTypeFormat": 源端类型格式。 "TargetTypeFormat": 目标端类型格式。 "TargetColumn": 目标端分区字段名。

其中 SourceTypeFormat 枚举及含义如下,右侧对应时间精度。 APSLiteralTimestampMilliSecond ->毫秒级精度。 APSLiteralTimestampMicroSecond -> 微秒级精度。 APSLiteralTimestampSecond -> 秒级精度。 APSMIDyyyyMMddHHmmssSSS -> yyyy-MM-dd HH:mm:ss.SSS。 APSMIDyyyyMMddHHmmss -> yyyy-MM-dd HH:mm:ss APSMIDyyyyMMdd -> yyyy-MM-dd。 APSyyyyMMddHHmmss -> yyyyMMddHHmmss。 �APSyyyyMMdd -> yyyyMMdd。 APSyyyyMM -> yyyyMM。 APSSLAyyyyMMdd -> yyyy/MM/dd。 APSSLAMMddyyyy -> MM/dd/yyyy。

[{ "SourceColumn": "NetOutFlow", "Strategy": "ParseAsTimeAndFormat", "SourceTypeFormat": "APSLiteralTimestampSecond", "TargetTypeFormat": "yyyy-MM-dd", "TargetColumn": "NetOutFlow" }]

Columns

array<object>

列信息。

object

列信息。

Name

string

源端字段名称。

a

MapName

string

目标端字段名称。

b

Type

string

源端字段类型。

string

MapType

string

目标端字段类型。

string

PrimaryKeyDefinition

string

主键设置。包含 uuid 策略和映射策略。解释如下。 Uuid 策略: "Strategy": "uuid"。 映射策略: "Strategy": "mapping", "Values":[ "f1", "f2" ], "RecordVersionField","xxx" 其中 RecordVersionField 的含义是 HUDI 记录版本。

"Strategy": "mapping"

WorkloadName

string

Workload 的名称。

test

LakehouseId

integer

Lakehouse 的 ID。

123

ResourceGroup

string

资源组名称。

aps

HudiAdvancedConfig

string

目标端 HUDI 配置。

hoodie.keep.min.commits=20

AdvancedConfig

string

高级配置。

-

FullComputeUnit

string

全量同步配置。

2ACU

IncrementalComputeUnit

string

增量同步配置。

2ACU

KafkaClusterId

string

Kafka 实例 ID。可以在 Kafka 控制台获取。

xxx

KafkaTopic

string

Kafka Topic ID。可以在 Kafka 控制台获取。

test

StartingOffsets

string

Kafka 起始消费位点。 枚举如下: begin_cursor/end_cursor/timestamp 分别对应最早/最近/指定时间。

begincursor

MaxOffsetsPerTrigger

integer

单次消费条数。

50000

DbName

string

用户自定义的数据库名称。

testDB

TableName

string

用户自定义的表名称。

testTB

OutputFormat

string

输出数据格式。

HUDI

TargetType

string

目标端类型。

OSS

TargetGenerateRule

string

目标生成规则。

xxx

AcrossUid

string

源端 Kafka 所属的阿里云账号的 ID。

123************

AcrossRole

string

可信实体为阿里云账号的 RAM 角色。如何创建 RAM 角色,请参见创建可信实体为阿里云账号的 RAM 角色。 RAM 角色中已将 AnalyticDB MySQL 所属阿里云账号设置为 Kafka 所属阿里云账号的信任云账号。

aps

SourceRegionId

string

地域 ID。

cn-hangzhou

JsonParseLevel

integer

设置 JSON 的嵌套解析层数,取值如下。 0:不做解析。 1:解析一层。 2:解析两层。 3:解析三层。 4:解析四层。 默认会解析一层。JSON 的嵌套解析策略具体可见 JSON 解析层级和 Schema 字段推断示例。

0

DataOutputFormat

string

枚举值及说明。 Single:源端是单行的 Json 记录。 Multi:源端是 Json 数组。需要输出单条 Json 记录。

Single

OssLocation

string

目的端湖仓地址,完整 OSS 路径。

oss://test-xx-zzz/yyy/

DatasourceId

integer

数据源 ID。

1

DataFormatType

string

Kafka 消息类型,支持的消息类型为:json、general_canal_json、mongo_canal_json、dataworks_json 和 shareplex_json

json

返回参数

名称

类型

描述

示例值

object

HttpStatusCode

integer

HTTP 状态码。

200

Data

string

返回创建的任务 ID。

xxx

RequestId

string

请求 ID。

1A943417-5B0E-1DB9-A8**-A566****C3

Success

boolean

是否请求成功。 True:成功。False:不成功。

true

Code

string

同 HTTP 状态码。

200

Message

string

返回消息。

ok

示例

正常返回示例

JSON格式

{
  "HttpStatusCode": 200,
  "Data": "xxx",
  "RequestId": "1A943417-5B0E-1DB9-A8**-A566****C3",
  "Success": true,
  "Code": "200",
  "Message": "ok"
}

错误码

访问错误中心查看更多错误码。

变更历史

更多信息,参考变更详情