调用GetFile获取文件的详情。
调试
您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。
请求参数
名称 | 类型 | 是否必选 | 示例值 | 描述 |
---|---|---|---|---|
Action | String | 是 | GetFile |
要执行的操作。 |
ProjectId | Long | 否 | 10000 |
DataWorks工作空间的ID。您可以登录DataWorks控制台,进入工作空间配置页面获取工作空间ID。 该参数与ProjectIdentifier参数,二者必须设置其一,用来确定本次API调用操作的DataWorks工作空间。 |
RegionId | String | 是 | cn-zhangjiakou |
地域信息,通常为服务所在的地域。例如,华东2(上海)为cn-shanghai,华北3(张家口)为cn-zhangjiakou。您无需填写RegionId,会根据调用的Endpoint自动解析。 |
ProjectIdentifier | String | 否 | dw_project |
DataWorks工作空间的名称。您可以登录DataWorks控制台,进入工作空间配置页面获取工作空间名称。 该参数与ProjectId参数,二者必须设置其一,用来确定本次API调用操作的DataWorks工作空间。 |
FileId | Long | 否 | 100000001 |
文件的ID。您可以调用ListFiles接口查询对应文件的ID。 |
NodeId | Long | 否 | 200000001 |
调度节点的ID。您可以调用ListFiles接口获取节点ID。 |
返回数据
名称 | 类型 | 示例值 | 描述 |
---|---|---|---|
HttpStatusCode | Integer | 200 |
HTTP状态码。 |
ErrorMessage | String | The connection does not exist. |
错误信息。 |
RequestId | String | 0000-ABCD-EFG**** |
请求ID。用于出现错误后排查问题。 |
ErrorCode | String | Invalid.Tenant.ConnectionNotExists |
错误码。 |
Success | Boolean | true |
调用是否成功。取值如下:
|
Data | Object |
文件的详情。 |
|
File | Object |
文件的基本信息。 |
|
CommitStatus | Integer | 0 |
文件当前的提交状态,包括0(未提交最新的代码)和1(已提交最新的代码)。 |
AutoParsing | Boolean | true |
文件是否开启自动解析功能。取值如下:
该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖”选择“同周期”时的“代码解析”对应。 |
Owner | String | 7775674356**** |
文件责任人的阿里云用户ID。 |
CreateTime | Long | 1593879116000 |
文件创建的时间戳,单位为毫秒。 |
FileType | Integer | 10 |
文件的代码类型。常用的代码及其对应的文件类型包括6(Shell)、10(ODPS SQL)、11(ODPS MR)、23(数据集成)、24(ODPS Script)、99(虚拟节点)、221(PyODPS 2)、225(ODPS Spark)、227(EMR Hive)、228(EMR Spark)、229(EMR Spark SQL)、230(EMR MR)、239(OSS对象检查)、257(EMR Shell)、258(EMR Spark Shell)、259(EMR Presto)、260(EMR Impala)、900(实时同步)、1089(跨租户节点)、1091(Hologres开发)、1093(Hologres SQL)、1100(赋值节点)、1221(PyODPS 3)。 |
CurrentVersion | Integer | 3 |
文件当前已经提交的最新版本号。 |
BizId | Long | 1000001 |
文件所属业务流程的ID。该字段已废弃,请使用BusinessId字段。 |
LastEditUser | String | 62465892**** |
最近一次编辑文件的阿里云用户ID。 |
FileName | String | ods_user_info_d |
文件的名称。 |
ConnectionName | String | odps_first |
执行文件对应的任务时,所使用的引擎实例ID。 |
UseType | String | NORMAL |
文件所属的功能模块。取值如下:
|
FileFolderId | String | 2735c2**** |
文件所属文件夹的ID。 |
ParentId | Long | -1 |
如果当前文件是组合节点文件的内部文件,该字段标识对应组合节点文件的ID。 |
CreateUser | String | 424732**** |
文件创建人的阿里云用户ID。 |
IsMaxCompute | Boolean | true |
标识该资源文件是否需要上传至MaxCompute。 仅当文件是MaxCompute资源文件时才需要配置该参数。 |
BusinessId | Long | 1000001 |
文件的业务流程ID。 |
FileDescription | String | 我的第一个Dataworks文件 |
文件的描述信息。 |
DeletedStatus | String | RECYCLE |
文件的删除状态。取值如下:
|
LastEditTime | Long | 1593879116000 |
最近一次编辑文件的时间戳,单位为毫秒。 |
Content | String | SHOW TABLES; |
文件的代码。 |
NodeId | Long | 300001 |
提交文件后,在调度系统生成的调度任务ID。 |
AdvancedSettings | String | {"queue":"default","SPARK_CONF":"--conf spark.driver.memory=2g"} |
任务的高级配置。 该参数与DataWorks控制台中,EMR Spark Streaming和EMR Streaming SQL数据开发任务,编辑页面右侧导航栏的“高级设置“对应。 当前仅EMR Spark Streaming和EMR Streaming SQL任务支持配置该参数,并且参数为JSON格式。 |
NodeConfiguration | Object |
文件的调度配置。 |
|
RerunMode | String | ALL_ALLOWED |
重跑属性。取值如下:
该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>重跑属性”配置内容对应。 |
SchedulerType | String | NORMAL |
调度的类型,取值如下:
|
Stop | Boolean | false |
是否暂停调度,取值如下:
该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>调度类型”配置为”暂停调度“时对应。 |
ParaValue | String | a=x b=y |
调度参数。 该参数与DataWorks控制台中,数据开发任务的“调度配置>参数”对应。您可以参考调度参数配置。 |
StartEffectDate | Long | 936923400000 |
开始自动调度的毫秒时间戳。 该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>生效日期”配置的开始时间的毫秒时间戳对应。 |
EndEffectDate | Long | 4155787800000 |
停止自动调度的时间戳,单位为毫秒。 该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>生效日期”配置的结束时间的毫秒时间戳对应。 |
CycleType | String | DAY |
调度周期的类型,包括NOT_DAY(分钟、小时)和DAY(日、周、月)。 该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>调度周期”对应。 |
DependentNodeIdList | String | 5,10,15,20 |
当DependentType参数配置为USER_DEFINE时,用于设置当前文件具体依赖的节点ID。依赖多个节点时,使用英文逗号(,)分隔。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖”配置为“上一周期”后,依赖项选择”其他节点“时配置的内容对应。 |
ResourceGroupId | Long | 375827434852437 |
文件发布成任务后,任务执行时对应的资源组。您可以调用ListResourceGroups获取工作空间可用的资源组列表。 |
DependentType | String | USER_DEFINE |
依赖上一周期的方式。取值如下:
|
AutoRerunTimes | Integer | 3 |
出错自动重跑的次数。 |
AutoRerunIntervalMillis | Integer | 120000 |
出错自动重跑时间间隔,单位为毫秒。 该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>出错自动重跑”的”重跑间隔“配置对应。 控制台中“重跑间隔”的时间单位为分钟,请在调用时注意转换时间。 |
CronExpress | String | 00 05 00 * * ? |
文件定时调度的cron表达式。 |
InputList | Array of NodeInputOutput |
文件依赖的上游文件输出。 |
|
Input | String | project.001_out |
文件依赖的上游文件的输出名称。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的”父节点输出名称”对应。 |
ParseType | String | MANUAL |
配置文件依赖的方式,取值如下:
|
OutputList | Array of NodeInputOutput |
文件的输出。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的”本节点的输出名称”对应。 |
|
RefTableName | String | ods_user_info_d |
文件的输出值。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的“本节点的输出表”列的值对应。 |
Output | String | dw_project.002_out |
文件的输出名称。 该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的“本节点的输出名称”列值对应。 |
StartImmediately | Boolean | true |
发布后是否立即启动。 该参数与DataWorks控制台中,EMR Spark Streaming和EMR Streaming SQL数据开发任务,编辑页面右侧导航栏的“配置>时间属性>启动方式“对应。 |
InputParameters | Array of InputContextParameter |
节点上下文输入参数。 该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输入参数“对应。 |
|
ParameterName | String | input |
节点上下文输入参数的参数名称。在代码中可以使用${...}方式引用该参数。 该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输入参数“的”参数名“对应。 |
ValueSource | String | project_001.parent_node:outputs |
节点上下文输入参数的取值来源。 该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输入参数“的”取值来源“对应。 |
OutputParameters | Array of OutputContextParameter |
节点上下文输出参数。 该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“对应。 |
|
ParameterName | String | output |
节点上下文输出参数的参数名称。 该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“的”参数名“对应。 |
Value | String | ${bizdate} |
节点上下文输出参数的表达式。 该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“的”取值“对应。 |
Type | String | 1 |
节点上下文输出参数表达式的类型。取值如下:
该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“的”类型“对应。 |
Description | String | It's a context output parameter. |
节点上下文输出的参数描述。 |
示例
请求示例
http(s)://[Endpoint]/?Action=GetFile
&ProjectId=10000
&ProjectIdentifier=dw_project
&FileId=100000001
&NodeId=200000001
&公共请求参数
正常返回示例
XML
格式
HTTP/1.1 200 OK
Content-Type:application/xml
<GetFileResponse>
<HttpStatusCode>200</HttpStatusCode>
<ErrorMessage>The connection does not exist.</ErrorMessage>
<RequestId>0000-ABCD-EFG****</RequestId>
<ErrorCode>Invalid.Tenant.ConnectionNotExists</ErrorCode>
<Success>true</Success>
<Data>
<File>
<CommitStatus>0</CommitStatus>
<AutoParsing>true</AutoParsing>
<Owner>7775674356****</Owner>
<CreateTime>1593879116000</CreateTime>
<FileType>10</FileType>
<CurrentVersion>3</CurrentVersion>
<BizId>1000001</BizId>
<LastEditUser>62465892****</LastEditUser>
<FileName>ods_user_info_d</FileName>
<ConnectionName>odps_first</ConnectionName>
<UseType>NORMAL</UseType>
<FileFolderId>2735c2****</FileFolderId>
<ParentId>-1</ParentId>
<CreateUser>424732****</CreateUser>
<IsMaxCompute>true</IsMaxCompute>
<BusinessId>1000001</BusinessId>
<FileDescription>我的第一个Dataworks文件</FileDescription>
<DeletedStatus>RECYCLE</DeletedStatus>
<LastEditTime>1593879116000</LastEditTime>
<Content>SHOW TABLES;</Content>
<NodeId>300001</NodeId>
<AdvancedSettings>{"queue":"default","SPARK_CONF":"--conf spark.driver.memory=2g"}</AdvancedSettings>
</File>
<NodeConfiguration>
<RerunMode>ALL_ALLOWED</RerunMode>
<SchedulerType>NORMAL</SchedulerType>
<Stop>false</Stop>
<ParaValue>a=x b=y</ParaValue>
<StartEffectDate>936923400000</StartEffectDate>
<EndEffectDate>4155787800000</EndEffectDate>
<CycleType>DAY</CycleType>
<DependentNodeIdList>5,10,15,20</DependentNodeIdList>
<ResourceGroupId>375827434852437</ResourceGroupId>
<DependentType>USER_DEFINE</DependentType>
<AutoRerunTimes>3</AutoRerunTimes>
<AutoRerunIntervalMillis>120000</AutoRerunIntervalMillis>
<CronExpress>00 05 00 * * ?</CronExpress>
<InputList>
<Input>project.001_out</Input>
<ParseType>MANUAL</ParseType>
</InputList>
<OutputList>
<RefTableName>ods_user_info_d</RefTableName>
<Output>dw_project.002_out</Output>
</OutputList>
<StartImmediately>true</StartImmediately>
<InputParameters>
<ParameterName>input</ParameterName>
<ValueSource>project_001.parent_node:outputs</ValueSource>
</InputParameters>
<OutputParameters>
<ParameterName>output</ParameterName>
<Value>${bizdate}</Value>
<Type>1</Type>
<Description>It's a context output parameter.</Description>
</OutputParameters>
</NodeConfiguration>
</Data>
</GetFileResponse>
JSON
格式
HTTP/1.1 200 OK
Content-Type:application/json
{
"HttpStatusCode" : 200,
"ErrorMessage" : "The connection does not exist.",
"RequestId" : "0000-ABCD-EFG****",
"ErrorCode" : "Invalid.Tenant.ConnectionNotExists",
"Success" : true,
"Data" : {
"File" : {
"CommitStatus" : 0,
"AutoParsing" : true,
"Owner" : "7775674356****",
"CreateTime" : 1593879116000,
"FileType" : 10,
"CurrentVersion" : 3,
"BizId" : 1000001,
"LastEditUser" : "62465892****",
"FileName" : "ods_user_info_d",
"ConnectionName" : "odps_first",
"UseType" : "NORMAL",
"FileFolderId" : "2735c2****",
"ParentId" : -1,
"CreateUser" : "424732****",
"IsMaxCompute" : true,
"BusinessId" : 1000001,
"FileDescription" : "我的第一个Dataworks文件",
"DeletedStatus" : "RECYCLE",
"LastEditTime" : 1593879116000,
"Content" : "SHOW TABLES;",
"NodeId" : 300001,
"AdvancedSettings" : "{\"queue\":\"default\",\"SPARK_CONF\":\"--conf spark.driver.memory=2g\"}"
},
"NodeConfiguration" : {
"RerunMode" : "ALL_ALLOWED",
"SchedulerType" : "NORMAL",
"Stop" : false,
"ParaValue" : "a=x b=y",
"StartEffectDate" : 936923400000,
"EndEffectDate" : 4155787800000,
"CycleType" : "DAY",
"DependentNodeIdList" : "5,10,15,20",
"ResourceGroupId" : 375827434852437,
"DependentType" : "USER_DEFINE",
"AutoRerunTimes" : 3,
"AutoRerunIntervalMillis" : 120000,
"CronExpress" : "00 05 00 * * ?",
"InputList" : {
"Input" : "project.001_out",
"ParseType" : "MANUAL"
},
"OutputList" : {
"RefTableName" : "ods_user_info_d",
"Output" : "dw_project.002_out"
},
"StartImmediately" : true,
"InputParameters" : {
"ParameterName" : "input",
"ValueSource" : "project_001.parent_node:outputs"
},
"OutputParameters" : {
"ParameterName" : "output",
"Value" : "${bizdate}",
"Type" : 1,
"Description" : "It's a context output parameter."
}
}
}
}
错误码
HttpCode | 错误码 | 错误信息 | 描述 |
---|---|---|---|
403 | Forbidden.Access | Access is forbidden. Please first activate DataWorks Enterprise Edition or Flagship Edition. | 您被限制访问,请开通DataWorks企业版或旗舰版。 |
429 | Throttling.Api | The request for this resource has exceeded your available limit. | 对该资源的请求已超过您的可用上限。 |
429 | Throttling.System | The DataWorks system is busy. Try again later. | DataWorks系统繁忙,请稍后再试。 |
429 | Throttling.User | Your request is too frequent. Try again later. | 您的请求过于频繁,请尝试放缓请求速度。 |
500 | InternalError.System | An internal system error occurred. Try again later. | 系统内部错误,请稍后再试。 |
500 | InternalError.UserId.Missing | An internal system error occurred. Try again later. | 系统内部错误,请稍后再试。 |
访问错误中心查看更多错误码。