调用GetIDEEventDetail,根据DataWorks开放消息的消息ID,查询触发扩展点事件时的扩展点数据快照。
调试
您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。
请求参数
名称 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
Action | String | 是 | GetIDEEventDetail |
要执行的操作。 |
MessageId | String | 是 | 8abcb91f-d266-4073-b907-2ed670378ed1 |
DataWorks开放消息的消息ID。当触发扩展点事件后,您可以从接收到的事件消息中获取消息ID。 |
ProjectId | Long | 是 | 10000 |
DataWorks工作空间的ID,您可以通过解析DataWorks开放消息获取空间ID。 |
RegionId | String | 是 | cn-zhangjiakou |
地域信息,通常为服务所在的地域。例如,华东2(上海)为cn-shanghai,华北3(张家口)为cn-zhangjiakou。您无需填写RegionId,会根据调用的Endpoint自动解析。 |
返回数据
名称 | 类型 | 示例值 | 描述 |
---|---|---|---|
RequestId | String | 8abcb91f-d266-4073-b907-2ed670378ed1 |
请求的唯一标识,用于后续错误排查使用。 |
EventDetail | Object |
触发扩展点事件时的数据快照。 不同类型的消息事件,数据快照的有效字段存在差异,具体请参考各消息事件的字段说明。 |
|
FileExecutionCommand | Object |
文件代码执行时的快照,当Message类型为IDE_FILE_EXECUTE_BEFORE时有效。 |
|
FileId | Long | 1234123 |
文件的ID。 |
DataSourceName | String | odps_first |
文件关联的计算引擎唯一标识。 |
Content | String | SHOW TABLES; |
生成本次文件版本的文件代码。 |
FileType | Long | 10 |
文件类型。不同文件类型其代码不同,常用的代码及其表示的类型包括6(Shell)、10(ODPS SQL)、11(ODPS MR)、23(数据集成)、24(ODPS Script)、99(虚拟节点)、221(PyODPS 2)、225(ODPS Spark)、227(EMR Hive)、228(EMR Spark)、229(EMR Spark SQL)、230(EMR MR)、239(OSS对象检查)、257(EMR Shell)、258(EMR Spark Shell)、259(EMR Presto)、260(EMR Impala)、900(实时同步)、1089(跨租户节点)、1091(Hologres开发)、1093(Hologres SQL)、1100(赋值节点)、1221(PyODPS 3)。 |
DeletedFile | Object |
删除文件时的快照信息,当Message类型为IDE_FILE_DELETE_BEFORE时有效。 |
|
Owner | String | 7384234**** |
文件责任人。 |
FileType | Long | 10 |
文件类型。不同文件类型其代码不同,常用的代码及其表示的类型包括6(Shell)、10(ODPS SQL)、11(ODPS MR)、23(数据集成)、24(ODPS Script)、99(虚拟节点)、221(PyODPS 2)、225(ODPS Spark)、227(EMR Hive)、228(EMR Spark)、229(EMR Spark SQL)、230(EMR MR)、239(OSS对象检查)、257(EMR Shell)、258(EMR Spark Shell)、259(EMR Presto)、260(EMR Impala)、900(实时同步)、1089(跨租户节点)、1091(Hologres开发)、1093(Hologres SQL)、1100(赋值节点)、1221(PyODPS 3)。 |
CurrentVersion | Long | 1 |
当前文件的最新版本。 |
BusinessId | Long | 74328 |
文件所属的业务流程ID。 |
FileName | String | hello_dataworks.sql |
文件名称。 |
DataSourceName | String | odps_first |
文件关联的计算引擎唯一标识。 |
UseType | String | NORMAL |
文件所属的功能模块。取值如下:
|
FolderId | String | aldurie78l2falure |
文件所属的文件夹ID,您可以调用GetFolder接口,通过文件夹ID查询文件详情。 |
ParentFileId | Long | 1234122 |
文件所属的循环节点或遍历节点的节点ID。 |
Content | String | SHOW TABLES; |
生成本次文件版本的文件代码。 |
NodeId | Long | 421429 |
调度节点的ID。 |
FileId | Long | 1234123 |
文件的ID。 |
CommittedFile | Object |
文件提交和发布时的快照。 仅当Message类型为IDE_FILE_SUBMIT_BEFORE或IDE_FILE_DEPLOY_BEFORE时有效。 |
|
FileId | Long | 1234123 |
文件的ID。 |
Content | String | SHOW TABLES; |
生成本次文件版本的文件代码。 |
Committor | String | 7384234**** |
生成本次文件版本的阿里云用户ID。 |
FileType | Long | 10 |
文件类型。不同文件类型其代码不同,常用的代码及其表示的类型包括6(Shell)、10(ODPS SQL)、11(ODPS MR)、23(数据集成)、24(ODPS Script)、99(虚拟节点)、221(PyODPS 2)、225(ODPS Spark)、227(EMR Hive)、228(EMR Spark)、229(EMR Spark SQL)、230(EMR MR)、239(OSS对象检查)、257(EMR Shell)、258(EMR Spark Shell)、259(EMR Presto)、260(EMR Impala)、900(实时同步)、1089(跨租户节点)、1091(Hologres开发)、1093(Hologres SQL)、1100(赋值节点)、1221(PyODPS 3)。 |
ChangeType | String | UPDATE |
本次文件版本的变更类型,包括CREATE、UPDATE和DELETE。 |
FileName | String | hello_dataworks.sql |
文件名称。 |
NodeId | Long | 421429 |
调度节点的ID。 |
Comment | String | 第二次版本提交 |
本次文件版本的说明。 |
UseType | String | NORMAL |
文件所属的功能模块。取值如下:
|
FilePropertyContent | Object |
文件的更多属性。 |
|
DataSourceName | String | odps_first |
文件关联的计算引擎唯一标识。 |
ParentFileId | Long | 1234122 |
文件所属的循环节点或遍历节点的节点ID。 |
BusinessId | Long | 74328 |
文件所属的业务流程ID。 |
CurrentVersion | Long | 1 |
当前文件的最新版本。 |
Owner | String | 7384234**** |
文件责任人。 |
FolderId | String | aldurie78l2falure |
文件所属的文件夹ID,您可以调用GetFolder接口,通过文件夹ID查询文件详情。 |
NodeConfiguration | Object |
文件的调度属性配置。 |
|
RerunMode | String | ALL_ALLOWED |
重跑属性。取值如下:
该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>重跑属性”配置内容对应。 |
SchedulerType | String | NORMAL |
调度的类型,取值如下:
|
ParaValue | String | a=x b=y |
调度参数。 该参数与DataWorks控制台中,数据开发任务的“调度配置>参数”对应。您可以参考调度参数配置。 |
CycleType | String | DAY |
调度周期的类型,包括NOT_DAY(分钟、小时)和DAY(日、周、月)。 该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>调度周期”对应。 |
DependentNodeIdList | String | 5,10,15,20 |
当DependentType参数配置为USER_DEFINE时,用于设置当前文件具体依赖的节点ID。依赖多个节点时,使用英文逗号(,)分隔。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖”配置为“上一周期”后,依赖项选择”其他节点“时配置的内容对应。 |
ResourceGroupId | Long | 375827434852437 |
文件发布成任务后,任务执行时使用的资源组。您可以调用ListResourceGroups获取工作空间可用的资源组列表。 |
AutoRerunTimes | Long | 3 |
自动重跑次数。 |
AutoRerunIntervalMillis | Long | 120000 |
自动重跑间隔毫秒数。 |
CronExpress | String | 00 05 00 * * ? |
调度Cron表达式。 |
InputList | Array of Input |
文件依赖的上游文件输出。 |
|
Input | String | dw_project_root |
文件依赖的上游文件的输出名称。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的”父节点输出名称”对应。 |
ParseType | String | MANUAL |
配置文件依赖的方式,取值如下:
|
OutputList | Array of Output |
文件的输出。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的”本节点的输出名称”对应。 |
|
RefTableName | String | ods_user_info_d |
文件的输出值。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的“本节点的输出表”列的值对应。 |
Output | String | dw_project.002_out |
文件的输出名称。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的“本节点的输出名称”列值对应。 |
DependentType | String | USER_DEFINE |
依赖上一周期的方式。取值如下:
|
TableModel | Object |
表提交和发布时的快照,当Message类型为IDE_TABLE_SUBMIT_BEFORE和IDE_TABLE_DEPLOY_BEFORE时有效。 |
|
Env | String | DEV |
表所属环境。取值如下:
|
LifeCycle | Long | 7 |
表的生命周期。单位为天。 |
TableName | String | tb_hello |
表名称。 |
DataSourceName | String | odps_first |
表所属计算引擎的唯一标识。 |
Columns | Array of Column |
字段列表。 |
|
ColumnName | String | ID |
字段名称。 |
ColumnType | String | BIGINT |
字段类型。 |
IsPartitionColumn | Boolean | false |
是否为分区字段,取值如下:
|
Comment | String | ID |
字段备注。 |
Comment | String | 新建的一张表。 |
表的备注信息。 |
Location | String | hdfs://path/to/object |
外部表的Location信息。 |
示例
请求示例
http(s)://[Endpoint]/?Action=GetIDEEventDetail
&MessageId=8abcb91f-d266-4073-b907-2ed670378ed1
&ProjectId=10000
&公共请求参数
正常返回示例
XML
格式
HTTP/1.1 200 OK
Content-Type:application/xml
<GetIDEEventDetailResponse>
<RequestId>8abcb91f-d266-4073-b907-2ed670378ed1</RequestId>
<EventDetail>
<FileExecutionCommand>
<FileId>1234123</FileId>
<DataSourceName>odps_first</DataSourceName>
<Content>SHOW TABLES;</Content>
<FileType>10</FileType>
</FileExecutionCommand>
<DeletedFile>
<Owner>7384234****</Owner>
<FileType>10</FileType>
<CurrentVersion>1</CurrentVersion>
<BusinessId>74328</BusinessId>
<FileName>hello_dataworks.sql</FileName>
<DataSourceName>odps_first</DataSourceName>
<UseType>NORMAL</UseType>
<FolderId>aldurie78l2falure</FolderId>
<ParentFileId>1234122</ParentFileId>
<Content>SHOW TABLES;</Content>
<NodeId>421429</NodeId>
<FileId>1234123</FileId>
</DeletedFile>
<CommittedFile>
<FileId>1234123</FileId>
<Content>SHOW TABLES;</Content>
<Committor>7384234****</Committor>
<FileType>10</FileType>
<ChangeType>UPDATE</ChangeType>
<FileName>hello_dataworks.sql</FileName>
<NodeId>421429</NodeId>
<Comment>第二次版本提交</Comment>
<UseType>NORMAL</UseType>
<FilePropertyContent>
<DataSourceName>odps_first</DataSourceName>
<ParentFileId>1234122</ParentFileId>
<BusinessId>74328</BusinessId>
<CurrentVersion>1</CurrentVersion>
<Owner>7384234****</Owner>
<FolderId>aldurie78l2falure</FolderId>
</FilePropertyContent>
<NodeConfiguration>
<RerunMode>ALL_ALLOWED</RerunMode>
<SchedulerType>NORMAL</SchedulerType>
<ParaValue>a=x b=y</ParaValue>
<CycleType>DAY</CycleType>
<DependentNodeIdList>5,10,15,20</DependentNodeIdList>
<ResourceGroupId>375827434852437</ResourceGroupId>
<AutoRerunTimes>3</AutoRerunTimes>
<AutoRerunIntervalMillis>120000</AutoRerunIntervalMillis>
<CronExpress>00 05 00 * * ?</CronExpress>
<InputList>
<Input>dw_project_root</Input>
<ParseType>MANUAL</ParseType>
</InputList>
<OutputList>
<RefTableName>ods_user_info_d</RefTableName>
<Output>dw_project.002_out</Output>
</OutputList>
<DependentType>USER_DEFINE</DependentType>
</NodeConfiguration>
</CommittedFile>
<TableModel>
<Env>DEV</Env>
<LifeCycle>7</LifeCycle>
<TableName>tb_hello</TableName>
<DataSourceName>odps_first</DataSourceName>
<Columns>
<ColumnName>ID</ColumnName>
<ColumnType>BIGINT</ColumnType>
<IsPartitionColumn>false</IsPartitionColumn>
<Comment>ID</Comment>
</Columns>
<Comment>新建的一张表。</Comment>
<Location>hdfs://path/to/object</Location>
</TableModel>
</EventDetail>
</GetIDEEventDetailResponse>
JSON
格式
HTTP/1.1 200 OK
Content-Type:application/json
{
"RequestId" : "8abcb91f-d266-4073-b907-2ed670378ed1",
"EventDetail" : {
"FileExecutionCommand" : {
"FileId" : 1234123,
"DataSourceName" : "odps_first",
"Content" : "SHOW TABLES;",
"FileType" : 10
},
"DeletedFile" : {
"Owner" : "7384234****",
"FileType" : 10,
"CurrentVersion" : 1,
"BusinessId" : 74328,
"FileName" : "hello_dataworks.sql",
"DataSourceName" : "odps_first",
"UseType" : "NORMAL",
"FolderId" : "aldurie78l2falure",
"ParentFileId" : 1234122,
"Content" : "SHOW TABLES;",
"NodeId" : 421429,
"FileId" : 1234123
},
"CommittedFile" : {
"FileId" : 1234123,
"Content" : "SHOW TABLES;",
"Committor" : "7384234****",
"FileType" : 10,
"ChangeType" : "UPDATE",
"FileName" : "hello_dataworks.sql",
"NodeId" : 421429,
"Comment" : "第二次版本提交",
"UseType" : "NORMAL",
"FilePropertyContent" : {
"DataSourceName" : "odps_first",
"ParentFileId" : 1234122,
"BusinessId" : 74328,
"CurrentVersion" : 1,
"Owner" : "7384234****",
"FolderId" : "aldurie78l2falure"
},
"NodeConfiguration" : {
"RerunMode" : "ALL_ALLOWED",
"SchedulerType" : "NORMAL",
"ParaValue" : "a=x b=y",
"CycleType" : "DAY",
"DependentNodeIdList" : "5,10,15,20",
"ResourceGroupId" : 375827434852437,
"AutoRerunTimes" : 3,
"AutoRerunIntervalMillis" : 120000,
"CronExpress" : "00 05 00 * * ?",
"InputList" : {
"Input" : "dw_project_root",
"ParseType" : "MANUAL"
},
"OutputList" : {
"RefTableName" : "ods_user_info_d",
"Output" : "dw_project.002_out"
},
"DependentType" : "USER_DEFINE"
}
},
"TableModel" : {
"Env" : "DEV",
"LifeCycle" : 7,
"TableName" : "tb_hello",
"DataSourceName" : "odps_first",
"Columns" : {
"ColumnName" : "ID",
"ColumnType" : "BIGINT",
"IsPartitionColumn" : false,
"Comment" : "ID"
},
"Comment" : "新建的一张表。",
"Location" : "hdfs://path/to/object"
}
}
}
错误码
HttpCode | 错误码 | 错误信息 | 描述 |
---|---|---|---|
400 | InternalError.UserId.Missing | An internal system error occurred. Try again later. | 系统内部错误,请稍后再试。 |
403 | Forbidden.Access | Access is forbidden. Please first activate DataWorks Enterprise Edition or Flagship Edition. | 您被限制访问,请开通DataWorks企业版或旗舰版。 |
429 | Throttling.Api | The request for this resource has exceeded your available limit. | 对该资源的请求已超过您的可用上限。 |
429 | Throttling.System | The DataWorks system is busy. Try again later. | DataWorks系统繁忙,请稍后再试。 |
429 | Throttling.User | Your request is too frequent. Try again later. | 您的请求过于频繁,请尝试放缓请求速度。 |
500 | InternalError.System | An internal system error occurred. Try again later. | 系统内部错误,请稍后再试。 |
访问错误中心查看更多错误码。