创建APS Kafka入湖任务。
调试
您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。
调试
授权信息
|
操作 |
访问级别 |
资源类型 |
条件关键字 |
关联操作 |
|
adb:CreateApsKafkaHudiJob |
none |
*DBClusterLakeVersion
|
无 | 无 |
请求参数
|
名称 |
类型 |
必填 |
描述 |
示例值 |
| DBClusterId |
string |
是 |
集群 ID。 说明
调用 DescribeDBClusters 接口可以查看目标地域下所有 AnalyticDB MySQL 湖仓版(3.0)集群的集群 ID。 |
amv-bp11q28kvl688**** |
| RegionId |
string |
是 |
地域 ID。 |
cn-hangzhou |
| PartitionSpecs |
array<object> |
否 |
分区信息。 |
|
|
object |
否 |
"SourceColumn": 源端分区字段名。 "Strategy": 策略。
其中 SourceTypeFormat 枚举及含义如下,右侧对应时间精度。 APSLiteralTimestampMilliSecond ->毫秒级精度。 APSLiteralTimestampMicroSecond -> 微秒级精度。 APSLiteralTimestampSecond -> 秒级精度。 APSMIDyyyyMMddHHmmssSSS -> yyyy-MM-dd HH:mm:ss.SSS。 APSMIDyyyyMMddHHmmss -> yyyy-MM-dd HH:mm:ss APSMIDyyyyMMdd -> yyyy-MM-dd。 APSyyyyMMddHHmmss -> yyyyMMddHHmmss。 �APSyyyyMMdd -> yyyyMMdd。 APSyyyyMM -> yyyyMM。 APSSLAyyyyMMdd -> yyyy/MM/dd。 APSSLAMMddyyyy -> MM/dd/yyyy。 |
[{ "SourceColumn": "NetOutFlow", "Strategy": "ParseAsTimeAndFormat", "SourceTypeFormat": "APSLiteralTimestampSecond", "TargetTypeFormat": "yyyy-MM-dd", "TargetColumn": "NetOutFlow" }] |
|
| Columns |
array<object> |
是 |
列信息。 |
|
|
object |
否 |
列信息。 |
||
| Name |
string |
否 |
源端字段名称。 |
a |
| MapName |
string |
否 |
目标端字段名称。 |
b |
| Type |
string |
否 |
源端字段类型。 |
string |
| MapType |
string |
否 |
目标端字段类型。 |
string |
| PrimaryKeyDefinition |
string |
否 |
主键设置。包含 uuid 策略和映射策略。解释如下。 Uuid 策略: "Strategy": "uuid"。 映射策略: "Strategy": "mapping", "Values":[ "f1", "f2" ], "RecordVersionField","xxx" 其中 RecordVersionField 的含义是 HUDI 记录版本。 |
"Strategy": "mapping" |
| WorkloadName |
string |
是 |
Workload 的名称。 |
test |
| LakehouseId |
integer |
否 |
Lakehouse 的 ID。 |
123 |
| ResourceGroup |
string |
是 |
资源组名称。 |
aps |
| HudiAdvancedConfig |
string |
否 |
目标端 HUDI 配置。 |
hoodie.keep.min.commits=20 |
| AdvancedConfig |
string |
否 |
高级配置。 |
- |
| FullComputeUnit |
string |
否 |
全量同步配置。 |
2ACU |
| IncrementalComputeUnit |
string |
是 |
增量同步配置。 |
2ACU |
| KafkaClusterId |
string |
否 |
Kafka 实例 ID。可以在 Kafka 控制台获取。 |
xxx |
| KafkaTopic |
string |
否 |
Kafka Topic ID。可以在 Kafka 控制台获取。 |
test |
| StartingOffsets |
string |
是 |
Kafka 起始消费位点。 枚举如下: begin_cursor/end_cursor/timestamp 分别对应最早/最近/指定时间。 |
begincursor |
| MaxOffsetsPerTrigger |
integer |
否 |
单次消费条数。 |
50000 |
| DbName |
string |
是 |
用户自定义的数据库名称。 |
testDB |
| TableName |
string |
是 |
用户自定义的表名称。 |
testTB |
| OutputFormat |
string |
否 |
输出数据格式。 |
HUDI |
| TargetType |
string |
否 |
目标端类型。 |
OSS |
| TargetGenerateRule |
string |
否 |
目标生成规则。 |
xxx |
| AcrossUid |
string |
否 |
源端 Kafka 所属的阿里云账号的 ID。 |
123************ |
| AcrossRole |
string |
否 |
可信实体为阿里云账号的 RAM 角色。如何创建 RAM 角色,请参见创建可信实体为阿里云账号的 RAM 角色。 RAM 角色中已将 AnalyticDB MySQL 所属阿里云账号设置为 Kafka 所属阿里云账号的信任云账号。 |
aps |
| SourceRegionId |
string |
否 |
地域 ID。 |
cn-hangzhou |
| JsonParseLevel |
integer |
否 |
设置 JSON 的嵌套解析层数,取值如下。 0:不做解析。 1:解析一层。 2:解析两层。 3:解析三层。 4:解析四层。 默认会解析一层。JSON 的嵌套解析策略具体可见 JSON 解析层级和 Schema 字段推断示例。 |
0 |
| DataOutputFormat |
string |
否 |
枚举值及说明。 Single:源端是单行的 Json 记录。 Multi:源端是 Json 数组。需要输出单条 Json 记录。 |
Single |
| OssLocation |
string |
否 |
目的端湖仓地址,完整 OSS 路径。 |
oss://test-xx-zzz/yyy/ |
| DatasourceId |
integer |
否 |
数据源 ID。 |
1 |
| DataFormatType |
string |
否 |
Kafka 消息类型,支持的消息类型为:json、general_canal_json、mongo_canal_json、dataworks_json 和 shareplex_json |
json |
返回参数
|
名称 |
类型 |
描述 |
示例值 |
|
object |
|||
| HttpStatusCode |
integer |
HTTP 状态码。 |
200 |
| Data |
string |
返回创建的任务 ID。 |
xxx |
| RequestId |
string |
请求 ID。 |
1A943417-5B0E-1DB9-A8**-A566****C3 |
| Success |
boolean |
是否请求成功。 True:成功。False:不成功。 |
true |
| Code |
string |
同 HTTP 状态码。 |
200 |
| Message |
string |
返回消息。 |
ok |
示例
正常返回示例
JSON格式
{
"HttpStatusCode": 200,
"Data": "xxx",
"RequestId": "1A943417-5B0E-1DB9-A8**-A566****C3",
"Success": true,
"Code": "200",
"Message": "ok"
}
错误码
访问错误中心查看更多错误码。
变更历史
更多信息,参考变更详情。