全部产品
Search
文档中心

大数据开发治理平台 DataWorks:GetFile

更新时间:Mar 08, 2024

调用GetFile获取文件的详情。

调试

您可以在OpenAPI Explorer中直接运行该接口,免去您计算签名的困扰。运行成功后,OpenAPI Explorer可以自动生成SDK代码示例。

请求参数

名称

类型

是否必选

示例值

描述

Action String GetFile

要执行的操作。

ProjectId Long 10000

DataWorks工作空间的ID。您可以登录DataWorks控制台,进入工作空间配置页面获取工作空间ID。

该参数与ProjectIdentifier参数,二者必须设置其一,用来确定本次API调用操作的DataWorks工作空间。

ProjectIdentifier String dw_project

DataWorks工作空间的名称。您可以登录DataWorks控制台,进入工作空间配置页面获取工作空间名称。

该参数与ProjectId参数,二者必须设置其一,用来确定本次API调用操作的DataWorks工作空间。

FileId Long 100000001

文件的ID。您可以调用ListFiles接口查询对应文件的ID。

NodeId Long 200000001

调度节点的ID。您可以调用ListFiles接口获取节点ID。

返回数据

名称

类型

示例值

描述

HttpStatusCode Integer 200

HTTP状态码。

ErrorMessage String The connection does not exist.

错误信息。

RequestId String 0000-ABCD-EFG****

请求ID。用于出现错误后排查问题。

ErrorCode String Invalid.Tenant.ConnectionNotExists

错误码。

Success Boolean true

调用是否成功。取值如下:

  • true:调用成功。
  • false:调用失败。
Data Object

文件的详情。

File Object

文件的基本信息。

CommitStatus Integer 0

文件当前的提交状态,包括0(未提交最新的代码)和1(已提交最新的代码)。

AutoParsing Boolean true

文件是否开启自动解析功能。取值如下:

  • true:文件会自动解析代码。
  • false:文件不会自动解析代码。

该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖”选择“同周期”时的“代码解析”对应。

Owner String 7775674356****

文件责任人的阿里云用户ID。

CreateTime Long 1593879116000

文件创建的时间戳,单位为毫秒。

FileType Integer 10

文件的代码类型。常用的代码及其对应的文件类型包括6(Shell)、10(ODPS SQL)、11(ODPS MR)、23(数据集成)、24(ODPS Script)、99(虚拟节点)、221(PyODPS 2)、225(ODPS Spark)、227(EMR Hive)、228(EMR Spark)、229(EMR Spark SQL)、230(EMR MR)、239(OSS对象检查)、257(EMR Shell)、258(EMR Spark Shell)、259(EMR Presto)、260(EMR Impala)、900(实时同步)、1089(跨租户节点)、1091(Hologres开发)、1093(Hologres SQL)、1100(赋值节点)、1221(PyODPS 3)。

CurrentVersion Integer 3

文件当前已经提交的最新版本号。

BizId Long 1000001

文件所属业务流程的ID。该字段已废弃,请使用BusinessId字段。

LastEditUser String 62465892****

最近一次编辑文件的阿里云用户ID。

FileName String ods_user_info_d

文件的名称。

ConnectionName String odps_source

执行文件对应的任务时,所使用的数据源名称。

UseType String NORMAL

文件所属的功能模块。取值如下:

  • NORMAL:数据开发。
  • MANUAL:手动任务。
  • MANUAL_BIZ:手动业务流程。
  • SKIP:数据开发的空跑调度。
  • ADHOCQUERY:临时查询。
  • COMPONENT:组件管理。
FileFolderId String 2735c2****

文件所属文件夹的ID。

ParentId Long -1

如果当前文件是组合节点文件的内部文件,该字段标识对应组合节点文件的ID。

CreateUser String 424732****

文件创建人的阿里云用户ID。

IsMaxCompute Boolean true

标识该资源文件是否需要上传至MaxCompute。

仅当文件是MaxCompute资源文件时才需要配置该参数。

BusinessId Long 1000001

文件的业务流程ID。

FileDescription String 我的第一个Dataworks文件

文件的描述信息。

DeletedStatus String RECYCLE

文件的删除状态。取值如下:

  • NORMAL:未删除。
  • RECYCLE_BIN:回收站。
  • DELETED:被删除。
LastEditTime Long 1593879116000

最近一次编辑文件的时间戳,单位为毫秒。

Content String SHOW TABLES;

文件的代码。

NodeId Long 300001

提交文件后,在调度系统生成的调度任务ID。

AdvancedSettings String {"queue":"default","SPARK_CONF":"--conf spark.driver.memory=2g"}

任务的高级配置。

该参数与DataWorks控制台中,EMR Spark Streaming和EMR Streaming SQL数据开发任务,编辑页面右侧导航栏的“高级设置“对应。

当前仅EMR Spark Streaming和EMR Streaming SQL任务支持配置该参数,并且参数为JSON格式。

FileId Long 100000001

文件的ID。

NodeConfiguration Object

文件的调度配置。

RerunMode String ALL_ALLOWED

重跑属性。取值如下:

  • ALL_ALLOWED:运行成功或失败后皆可重跑。
  • FAILURE_ALLOWED:运行成功后不可重跑,运行失败后可以重跑。
  • ALL_DENIED:运行成功或失败皆不可重跑。

该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>重跑属性”配置内容对应。

SchedulerType String NORMAL

调度的类型,取值如下:

  • NORMAL:正常调度任务。
  • MANUAL:手动任务,不会被日常调度,对应手动业务流程下的节点。
  • PAUSE:暂停任务。
  • SKIP:空跑任务,被日常调度,但启动调度时直接被置为成功。
Stop Boolean false

是否暂停调度,取值如下:

  • true:暂停调度。
  • false:不暂停调度。

该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>调度类型”配置为”暂停调度“时对应。

ParaValue String a=x b=y

调度参数。

该参数与DataWorks控制台中,数据开发任务的“调度配置>参数”对应。您可以参考调度参数配置。

StartEffectDate Long 936923400000

开始自动调度的毫秒时间戳。

该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>生效日期”配置的开始时间的毫秒时间戳对应。

EndEffectDate Long 4155787800000

停止自动调度的时间戳,单位为毫秒。

该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>生效日期”配置的结束时间的毫秒时间戳对应。

CycleType String DAY

调度周期的类型,包括NOT_DAY(分钟、小时)和DAY(日、周、月)。

该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>调度周期”对应。

DependentNodeIdList String 5,10,15,20

当DependentType参数配置为USER_DEFINE时,用于设置当前文件具体依赖的节点ID。依赖多个节点时,使用英文逗号(,)分隔。

该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖”配置为“上一周期”后,依赖项选择”其他节点“时配置的内容对应。

ResourceGroupId Long 375827434852437

文件发布成任务后,任务执行时对应的资源组。您可以调用ListResourceGroups获取工作空间可用的资源组列表。

DependentType String USER_DEFINE

依赖上一周期的方式。取值如下:

  • SELF:依赖项选择本节点。
  • CHILD:依赖项选择一级子节点。
  • USER_DEFINE:依赖项选择其他节点。
  • NONE:未选择依赖项,即不会依赖上一周期。
AutoRerunTimes Integer 3

出错自动重跑的次数。

AutoRerunIntervalMillis Integer 120000

出错自动重跑时间间隔,单位为毫秒。

该参数与DataWorks控制台中,数据开发任务的“调度配置>时间属性>出错自动重跑”的”重跑间隔“配置对应。

控制台中“重跑间隔”的时间单位为分钟,请在调用时注意转换时间。

CronExpress String 00 05 00 * * ?

文件定时调度的cron表达式。

InputList Array of NodeInputOutput

文件依赖的上游文件输出。

Input String project.001_out

文件依赖的上游文件的输出名称。

该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的”父节点输出名称”对应。

ParseType String MANUAL

配置文件依赖的方式,取值如下:

  • MANUAL:手动配置。
  • AUTO:自动解析。
OutputList Array of NodeInputOutput

文件的输出。

该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的”本节点的输出名称”对应。

RefTableName String ods_user_info_d

文件的输出值。

该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的“本节点的输出表”列的值对应。

Output String dw_project.002_out

文件的输出名称。

该参数与DataWorks控制台中,数据开发任务的“调度配置>调度依赖“选择”同周期“时的“本节点的输出名称”列值对应。

StartImmediately Boolean true

发布后是否立即启动。

该参数与DataWorks控制台中,EMR Spark Streaming和EMR Streaming SQL数据开发任务,编辑页面右侧导航栏的“配置>时间属性>启动方式“对应。

InputParameters Array of InputContextParameter

节点上下文输入参数。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输入参数“对应。

ParameterName String input

节点上下文输入参数的参数名称。在代码中可以使用${...}方式引用该参数。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输入参数“的”参数名“对应。

ValueSource String project_001.parent_node:outputs

节点上下文输入参数的取值来源。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输入参数“的”取值来源“对应。

OutputParameters Array of OutputContextParameter

节点上下文输出参数。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“对应。

ParameterName String output

节点上下文输出参数的参数名称。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“的”参数名“对应。

Value String ${bizdate}

节点上下文输出参数的表达式。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“的”取值“对应。

Type String 1

节点上下文输出参数表达式的类型。取值如下:

  • 1:表示常量。
  • 2:表示变量。
  • 3:表示参数节点透传变量。

该参数与DataWorks控制台中,数据开发任务的“调度配置>节点上下文>本节点输出参数“的”类型“对应。

Description String It's a context output parameter.

节点上下文输出的参数描述。

示例

请求示例

http(s)://[Endpoint]/?Action=GetFile
&ProjectId=10000
&ProjectIdentifier=dw_project
&FileId=100000001
&NodeId=200000001
&公共请求参数

正常返回示例

XML格式

HTTP/1.1 200 OK
Content-Type:application/xml

<GetFileResponse>
    <HttpStatusCode>200</HttpStatusCode>
    <ErrorMessage>The connection does not exist.</ErrorMessage>
    <RequestId>0000-ABCD-EFG****</RequestId>
    <ErrorCode>Invalid.Tenant.ConnectionNotExists</ErrorCode>
    <Success>true</Success>
    <Data>
        <File>
            <CommitStatus>0</CommitStatus>
            <AutoParsing>true</AutoParsing>
            <Owner>7775674356****</Owner>
            <CreateTime>1593879116000</CreateTime>
            <FileType>10</FileType>
            <CurrentVersion>3</CurrentVersion>
            <BizId>1000001</BizId>
            <LastEditUser>62465892****</LastEditUser>
            <FileName>ods_user_info_d</FileName>
            <ConnectionName>odps_source</ConnectionName>
            <UseType>NORMAL</UseType>
            <FileFolderId>2735c2****</FileFolderId>
            <ParentId>-1</ParentId>
            <CreateUser>424732****</CreateUser>
            <IsMaxCompute>true</IsMaxCompute>
            <BusinessId>1000001</BusinessId>
            <FileDescription>我的第一个Dataworks文件</FileDescription>
            <DeletedStatus>RECYCLE</DeletedStatus>
            <LastEditTime>1593879116000</LastEditTime>
            <Content>SHOW TABLES;</Content>
            <NodeId>300001</NodeId>
            <AdvancedSettings>{"queue":"default","SPARK_CONF":"--conf spark.driver.memory=2g"}</AdvancedSettings>
            <FileId>100000001</FileId>
        </File>
        <NodeConfiguration>
            <RerunMode>ALL_ALLOWED</RerunMode>
            <SchedulerType>NORMAL</SchedulerType>
            <Stop>false</Stop>
            <ParaValue>a=x b=y</ParaValue>
            <StartEffectDate>936923400000</StartEffectDate>
            <EndEffectDate>4155787800000</EndEffectDate>
            <CycleType>DAY</CycleType>
            <DependentNodeIdList>5,10,15,20</DependentNodeIdList>
            <ResourceGroupId>375827434852437</ResourceGroupId>
            <DependentType>USER_DEFINE</DependentType>
            <AutoRerunTimes>3</AutoRerunTimes>
            <AutoRerunIntervalMillis>120000</AutoRerunIntervalMillis>
            <CronExpress>00 05 00 * * ?</CronExpress>
            <InputList>
                <Input>project.001_out</Input>
                <ParseType>MANUAL</ParseType>
            </InputList>
            <OutputList>
                <RefTableName>ods_user_info_d</RefTableName>
                <Output>dw_project.002_out</Output>
            </OutputList>
            <StartImmediately>true</StartImmediately>
            <InputParameters>
                <ParameterName>input</ParameterName>
                <ValueSource>project_001.parent_node:outputs</ValueSource>
            </InputParameters>
            <OutputParameters>
                <ParameterName>output</ParameterName>
                <Value>${bizdate}</Value>
                <Type>1</Type>
                <Description>It's a context output parameter.</Description>
            </OutputParameters>
        </NodeConfiguration>
    </Data>
</GetFileResponse>

JSON格式

HTTP/1.1 200 OK
Content-Type:application/json

{
  "HttpStatusCode" : 200,
  "ErrorMessage" : "The connection does not exist.",
  "RequestId" : "0000-ABCD-EFG****",
  "ErrorCode" : "Invalid.Tenant.ConnectionNotExists",
  "Success" : true,
  "Data" : {
    "File" : {
      "CommitStatus" : 0,
      "AutoParsing" : true,
      "Owner" : "7775674356****",
      "CreateTime" : 1593879116000,
      "FileType" : 10,
      "CurrentVersion" : 3,
      "BizId" : 1000001,
      "LastEditUser" : "62465892****",
      "FileName" : "ods_user_info_d",
      "ConnectionName" : "odps_source",
      "UseType" : "NORMAL",
      "FileFolderId" : "2735c2****",
      "ParentId" : -1,
      "CreateUser" : "424732****",
      "IsMaxCompute" : true,
      "BusinessId" : 1000001,
      "FileDescription" : "我的第一个Dataworks文件",
      "DeletedStatus" : "RECYCLE",
      "LastEditTime" : 1593879116000,
      "Content" : "SHOW TABLES;",
      "NodeId" : 300001,
      "AdvancedSettings" : "{\"queue\":\"default\",\"SPARK_CONF\":\"--conf spark.driver.memory=2g\"}",
      "FileId" : 100000001
    },
    "NodeConfiguration" : {
      "RerunMode" : "ALL_ALLOWED",
      "SchedulerType" : "NORMAL",
      "Stop" : false,
      "ParaValue" : "a=x b=y",
      "StartEffectDate" : 936923400000,
      "EndEffectDate" : 4155787800000,
      "CycleType" : "DAY",
      "DependentNodeIdList" : "5,10,15,20",
      "ResourceGroupId" : 375827434852437,
      "DependentType" : "USER_DEFINE",
      "AutoRerunTimes" : 3,
      "AutoRerunIntervalMillis" : 120000,
      "CronExpress" : "00 05 00 * * ?",
      "InputList" : {
        "Input" : "project.001_out",
        "ParseType" : "MANUAL"
      },
      "OutputList" : {
        "RefTableName" : "ods_user_info_d",
        "Output" : "dw_project.002_out"
      },
      "StartImmediately" : true,
      "InputParameters" : {
        "ParameterName" : "input",
        "ValueSource" : "project_001.parent_node:outputs"
      },
      "OutputParameters" : {
        "ParameterName" : "output",
        "Value" : "${bizdate}",
        "Type" : 1,
        "Description" : "It's a context output parameter."
      }
    }
  }
}

错误码

HttpCode

错误码

错误信息

描述

429 Throttling.Api The request for this resource has exceeded your available limit. 对该资源的请求已超过您的可用上限。
429 Throttling.System The DataWorks system is busy. Try again later. DataWorks系统繁忙,请稍后再试。
429 Throttling.User Your request is too frequent. Try again later. 您的请求过于频繁,请尝试放缓请求速度。
500 InternalError.System An internal system error occurred. Try again later. 系统内部错误,请稍后再试。
500 InternalError.UserId.Missing An internal system error occurred. Try again later. 系统内部错误,请稍后再试。

访问错误中心查看更多错误码。