すべてのプロダクト
Search
ドキュメントセンター

DataWorks:ノード開発

最終更新日:Feb 04, 2026

DataWorks の DataStudio は、さまざまなデータ処理ニーズに対応するために、多様なノードを提供しています。データ統合ノードを使用して同期を行い、MaxCompute SQL、Hologres SQL、EMR Hive などのエンジンコンピューティングノードを使用してデータクレンジングを行い、ゼロロードノードや do-while ループノードなどの汎用ノードを使用して複雑なロジック処理を行うことができます。これらのノードを連携させることで、さまざまなデータ処理の課題に効果的に対応できます。

サポートされているノードタイプ

次の表は、定期スケジュールでサポートされているノードタイプの一覧です。ワンタイムタスクや手動トリガーワークフローでサポートされているノードタイプは異なる場合があります。最も正確な情報については、UI をご参照ください。

説明

ノードの可用性は、DataWorks のエディションとリージョンによって異なります。最も正確な情報については、UI をご参照ください。

ノードタイプ

ノード名

説明

ノードコード

TaskType

データ統合

バッチ同期

定期的なバッチデータ同期に使用されます。複雑なシナリオで、さまざまな異種データソース間のデータ同期をサポートします。

バッチ同期でサポートされているデータソースの詳細については、「サポートされているデータソースと同期ソリューション」をご参照ください。

23

DI

リアルタイム同期

DataWorks のリアルタイムデータ同期機能を使用すると、ソースデータベースからターゲットデータベースへのデータ変更をリアルタイムで同期できます。これにより、データの整合性が保証されます。単一のテーブルまたはデータベース全体を同期できます。

リアルタイム同期でサポートされているデータソースの詳細については、「サポートされているデータソースと同期ソリューション」をご参照ください。

900

RI

Notebook

Notebook 開発

Notebook は、データ処理と分析のための柔軟でインタラクティブなプラットフォームを提供します。直感性、モジュール性、インタラクションを向上させることで、データ処理、探索、可視化、モデル構築をより効率的にします。

1323

NOTEBOOK

MaxCompute

MaxCompute SQL

MaxCompute SQL タスクの定期的なスケジューリングをサポートします。MaxCompute SQL タスクは SQL ライクな構文を使用し、リアルタイム性能が重要でない大規模データセット (テラバイト規模) の分散処理に適しています。

10

ODPS_SQL

SQL スクリプトテンプレート

SQL スクリプトテンプレートは、複数の入出力パラメーターを持つ SQL コードテンプレートです。ソーステーブルのデータをフィルタリング、結合、集約することでデータを処理し、結果テーブルを生成します。データ開発中に、SQL スクリプトテンプレートノードを作成し、これらの事前定義されたコンポーネントを使用してデータ処理フローを迅速に構築できます。これにより、開発効率が大幅に向上します。

1010

COMPONENT_SQL

MaxCompute Script

複数の SQL 文を単一のスクリプトに結合してコンパイルおよび実行します。これは、ネストされたサブクエリや複数ステップの操作など、複雑なクエリシナリオに最適です。スクリプト全体を一度に送信することで、統一された実行計画が生成されます。ジョブは一度だけキューに入れられて実行されるため、リソースの使用効率が向上します。

24

ODPS_SQL_SCRIPT

PyODPS 2

MaxCompute 用の Python SDK を統合します。これにより、PyODPS 2 ノードで直接 Python コードを記述および編集して、MaxCompute でデータ処理および分析タスクを実行できます。

221

PY_ODPS

PyODPS 3

PyODPS 3 ノードを使用して、MaxCompute ジョブを Python で直接記述し、定期的なスケジューリング用に構成します。

1221

PYODPS3

MaxCompute Spark

DataWorks は、MaxCompute に基づくオフライン Spark ジョブ (クラスターモード) の実行をサポートします。

225

ODPS_SPARK

MaxCompute MR

MaxCompute MR ノードを作成し、スケジューリングに送信して、MapReduce Java API を使用して MapReduce プログラムを記述します。これにより、MaxCompute で大規模なデータセットを処理できます。

11

ODPS_MR

メタデータを Hologres にマッピング

Hologres で MaxCompute データのクエリを高速化する必要がある場合は、データカタログの MaxCompute メタデータマッピング機能を使用できます。これにより、MaxCompute テーブルのメタデータが Hologres にマッピングされ、Hologres 外部テーブルを使用して MaxCompute データのクエリを高速化できます。

-

-

データを Hologres に同期

単一の MaxCompute テーブルから Hologres へのデータ同期をサポートします。これにより、効率的なビッグデータ分析とリアルタイムクエリが容易になります。

-

-

Hologres

Hologres SQL

Hologres SQL ノードは、Hologres インスタンス内のデータのクエリをサポートします。Hologres と MaxCompute は、基盤となるレイヤーでシームレスに接続されています。これにより、Hologres SQL ノードを使用して、データ移行なしで標準の PostgreSQL 文を使用して MaxCompute の大規模なデータを直接クエリおよび分析できます。これにより、迅速なクエリ結果が提供されます。

1093

HOLOGRES_SQL

データを MaxCompute に同期

単一の Hologres テーブルから MaxCompute へのデータ移行をサポートします。

1070

HOLOGRES_SYNC_DATA_TO_MC

MaxCompute テーブルスキーマ同期

テーブルスキーマをインポートするためのワンクリック機能を提供します。これにより、MaxCompute テーブルと同じスキーマを持つ Hologres 外部テーブルをバッチで迅速に作成できます。

1094

HOLOGRES_SYNC_DDL

MaxCompute データ同期

ワンクリックのデータ同期機能を提供します。これにより、MaxCompute から Hologres データベースにデータを迅速に同期できます。

1095

HOLOGRES_SYNC_DATA

Serverless Spark

Serverless Spark Batch

Serverless Spark に基づく Spark ノードで、大規模なデータ処理に適しています。

2100

SERVERLESS_SPARK_BATCH

Serverless Spark SQL

Serverless Spark に基づく SQL クエリノードです。標準の SQL 構文をサポートし、高性能なデータ分析機能を提供します。

2101

SERVERLESS_SPARK_SQL

Serverless Kyuubi

Kyuubi JDBC/ODBC インターフェイスを介して Serverless Spark に接続し、マルチテナントの Spark SQL サービスを提供します。

2103

SERVERLESS_KYUUBI

Serverless StarRocks

Serverless StarRocks SQL

EMR Serverless StarRocks に基づく SQL ノードです。オープンソースの StarRocks の SQL 構文と互換性があり、非常に高速なオンライン分析処理 (OLAP) クエリ分析と Lakehouse クエリ分析を提供します。

2104

SERVERLESS_STARROCKS

LLM

大規模言語モデル

データ処理、分析、マイニングのための組み込みエンジンを備えています。自然言語の命令に基づいて、データクレンジングとマイニングをインテリジェントに実行します。

2200

LLM_NODE

Flink

Flink SQL Streaming

標準の SQL 文を使用してリアルタイムタスクの処理ロジックを定義することをサポートします。使いやすく、豊富な SQL をサポートし、強力な状態管理とフォールトトレランスを備えています。イベント時間と処理時間と互換性があり、柔軟に拡張できます。このノードは、Kafka や HDFS などのシステムと簡単に統合でき、詳細なログとパフォーマンス監視ツールを提供します。

2012

FLINK_SQL_STREAM

Flink SQL Batch

標準の SQL 文を使用してデータ処理タスクを定義および実行できます。データクレンジングや集約など、大規模なデータセットの分析と変換に適しています。このノードは、視覚的な構成をサポートし、大規模なバッチ処理のための効率的で柔軟なソリューションを提供します。

2011

FLINK_SQL_BATCH

EMR

EMR Hive

SQL ライクな文を使用して、大規模なデータセットの読み取り、書き込み、管理を行います。これにより、大量のログデータを効率的に分析および開発できます。

227

EMR_HIVE

EMR Impala

ペタバイト規模のビッグデータに対する高速でリアルタイムなクエリのためのインタラクティブ SQL クエリエンジンです。

260

EMR_IMPALA

EMR MR

大規模なデータセットを複数の並列 Map タスクに分割し、データ処理効率を大幅に向上させます。

230

EMR_MR

EMR Presto

標準の SQL クエリ言語を使用してビッグデータのインタラクティブな分析をサポートする、柔軟でスケーラブルな分散 SQL クエリエンジンです。

259

EMR_PRESTO

EMR Shell

カスタムの Shell スクリプトを編集して、データ処理、Hadoop コンポーネントの呼び出し、ファイル操作などの高度な機能を使用できます。

257

EMR_SHELL

EMR Spark

高性能、使いやすさ、幅広い適用性で知られる汎用ビッグデータ分析エンジンです。複雑なインメモリコンピューティングをサポートし、大規模で低遅延のデータ分析アプリケーションの構築に最適です。

228

EMR_SPARK

EMR Spark SQL

構造化データを処理し、ジョブの実行効率を向上させるための分散 SQL クエリエンジンを実装します。

229

EMR_SPARK_SQL

EMR Spark Streaming

高スループットのリアルタイムストリーミングデータを処理するために使用されます。失敗したデータストリームを迅速に回復できるフォールトトレランスメカニズムを備えています。

264

EMR_SPARK_STREAMING

EMR Trino

複数のデータソースにまたがるインタラクティブな分析に適した分散 SQL クエリエンジンです。

267

EMR_TRINO

EMR Kyuubi

Spark、Flink、Trino などのデータレイククエリエンジンに SQL やその他のクエリサービスを提供する、分散型でマルチテナントのゲートウェイです。

268

EMR_KYUUBI

ADB

AnalyticDB for PostgreSQL

AnalyticDB for PostgreSQL タスクを定期的に開発およびスケジューリングします。

1000090

-

AnalyticDB for MySQL

AnalyticDB for MySQL タスクを定期的に開発およびスケジューリングします。

1000126

-

ADB Spark

AnalyticDB Spark タスクを定期的に開発およびスケジューリングします。

1990

ADB_SPARK

ADB Spark SQL

AnalyticDB Spark SQL タスクを定期的に開発およびスケジューリングします。

1991

ADB_SPARK_SQL

CDH

CDH Hive

CDH クラスターをデプロイ済みで、DataWorks を使用して Hive タスクを実行したい場合に使用します。

270

CDH_HIVE

CDH Spark

高性能、使いやすさ、幅広い適用性を備えた汎用ビッグデータ分析エンジンです。複雑なインメモリ分析や、大規模で低遅延のデータ分析アプリケーションの構築に使用します。

271

CDH_SPARK

CDH Spark SQL

構造化データを処理し、ジョブの実行効率を向上させるための分散 SQL クエリエンジンを実装します。

272

CDH_SPARK_SQL

CDH MR

超大規模なデータセットを処理します。

273

CDH_MR

CDH Presto

このノードは分散 SQL クエリエンジンを提供し、CDH 環境のデータ分析能力を強化します。

278

CDH_PRESTO

CDH Impala

CDH Impala ノードを使用すると、Impala SQL スクリプトを記述および実行でき、より高速なクエリパフォーマンスを提供します。

279

CDH_IMPALA

Lindorm

Lindorm Spark

Lindorm Spark タスクを定期的に開発およびスケジューリングします。

1800

LINDORM_SPARK

Lindorm Spark SQL

Lindorm Spark SQL タスクを定期的に開発およびスケジューリングします。

1801

LINDORM_SPARK_SQL

ClickHouse

ClickHouse SQL

分散 SQL クエリを実行し、構造化データを処理してジョブの実行効率を向上させます。

1301

CLICK_SQL

Data Quality

データ品質監視

データ品質監視ルールを構成して、データソース内のテーブルのデータ品質を監視します。たとえば、ダーティデータをチェックします。また、スケジューリングポリシーをカスタマイズして、データ検証のために監視ジョブを定期的に実行することもできます。

1333

DATA_QUALITY_MONITOR

データ比較

比較ノードを使用すると、さまざまな方法で異なるテーブルのデータを比較できます。

1331

DATA_SYNCHRONIZATION_QUALITY_CHECK

汎用

仮想ノード

ゼロロードノードは制御ノードです。データを生成しないドライランノードです。通常、ワークフローのルートノードとして使用され、ノードとワークフローの管理に役立ちます。

99

VIRTUAL

代入ノード

パラメーターの受け渡しに使用されます。ノードの出力は、最後のクエリまたは出力の結果をノードコンテキストを介して子孫ノードに渡します。これにより、ノード間のパラメーター受け渡しが可能になります。

1100

CONTROLLER_ASSIGNMENT

Shell ノード

Shell ノードは標準の Shell 構文をサポートしますが、インタラクティブな構文はサポートしません。

6

DIDE_SHELL

パラメーターノード

先祖ノードからのパラメーターを集約し、子孫ノードに渡します。

1115

PARAM_HUB

OSS オブジェクトチェックノード

OSS オブジェクトを監視することで、子孫ノードの実行をトリガーします。

239

OSS_INSPECT

Python ノード

Python 3 をサポートします。スケジューリング構成のスケジューリングパラメーターを介して、上流のパラメーターを取得し、カスタムパラメーターを構成できます。また、自身の出力をパラメーターとして子孫ノードに渡すこともできます。

1322

Python

マージノード

先祖ノードの実行ステータスをマージして、ブランチノードの子孫ノードの依存関係の添付と実行トリガーの問題を解決します。

1102

CONTROLLER_JOIN

ブランチノード

先祖ノードの結果を評価して、どのブランチロジックに従うかを決定します。代入ノードと組み合わせて使用できます。

1101

CONTROLLER_BRANCH

For-each ノード

代入ノードによって渡された結果セットを走査します。

1106

CONTROLLER_TRAVERSE

do-while ノード

ノードロジックの一部をループします。代入ノードと組み合わせて使用して、代入ノードによって渡された結果をループすることもできます。

1103

CONTROLLER_CYCLE

チェックノード

ターゲットオブジェクト (MaxCompute パーティションテーブル、FTP ファイル、または OSS ファイル) がアクティブかどうかをチェックします。チェックノードがチェックポリシーを満たすと、成功した実行ステータスを返します。子孫の依存関係がある場合、正常に実行され、子孫タスクをトリガーします。サポートされているターゲットオブジェクト:

  • MaxCompute パーティションテーブル

  • FTP ファイル

  • OSS ファイル

  • HDFS

  • OSS-HDFS

241

CHECK_NODE

Function Compute

イベント処理関数の定期的なスケジューリングに使用されます。

1330

FUNCTION_COMPUTE

HTTP トリガー

別の CDN マッピングシステムでタスクが完了した後に DataWorks でタスクをトリガーしたい場合に使用します。

説明

DataWorks では、[クロステナントコラボレーションノード] の作成はサポートされなくなりました。クロステナントコラボレーションノードを使用している場合は、同じ機能を提供する HTTP トリガーノードに置き換えてください。

1114

SCHEDULER_TRIGGER

SSH

SSH データソースを指定して、DataWorks からそのデータソースに接続されたホストにリモートアクセスし、リモートホストでスクリプトを実行するようにトリガーできます。

1321

SSH

データプッシュ

データプッシュノードは、DataStudio ワークフロー内の他のノードによって生成されたクエリ結果を、データプッシュ先を作成することで DingTalk グループ、Lark グループ、WeCom グループ、Teams、およびメールボックスにプッシュできます。

1332

DATA_PUSH

データベースノード

MySQL ノード

MySQL ノードを使用すると、MySQL タスクを定期的に開発およびスケジューリングできます。

1000125

-

SQL Server

SQL Server ノードを使用すると、SQL Server タスクを定期的に開発およびスケジューリングできます。

10001

-

Oracle ノード

Oracle ノードを使用すると、Oracle タスクを定期的に開発およびスケジューリングできます。

10002

-

PostgreSQL ノード

PostgreSQL ノードを使用すると、PostgreSQL タスクを定期的に開発およびスケジューリングできます。

10003

-

StarRocks ノード

StarRocks タスクを定期的に開発およびスケジューリングします。

10004

-

DRDS ノード

DRDS タスクを定期的に開発およびスケジューリングします。

10005

-

PolarDB MySQL ノード

PolarDB for MySQL タスクを定期的に開発およびスケジューリングします。

10006

-

PolarDB PostgreSQL ノード

PolarDB PostgreSQL ノードを使用すると、PolarDB for PostgreSQL タスクを定期的に開発およびスケジューリングできます。

10007

-

Doris ノード

Doris ノードを使用すると、Doris タスクを定期的に開発およびスケジューリングできます。

10008

-

MariaDB ノード

MariaDB ノードを使用すると、MariaDB タスクを定期的に開発およびスケジューリングできます。

10009

-

SelectDB ノード

SelectDB ノードを使用すると、SelectDB タスクを定期的に開発およびスケジューリングできます。

10010

-

Redshift ノード

Redshift ノードを使用すると、Redshift タスクを定期的に開発およびスケジューリングできます。

10011

-

SAP HANA ノード

SAP HANA ノードを使用すると、SAP HANA タスクを定期的に開発およびスケジューリングできます。

10012

-

Vertica ノード

Vertica ノードを使用すると、Vertica タスクを定期的に開発およびスケジューリングできます。

10013

-

DM (Dameng) ノード

DM ノードを使用すると、DM タスクを定期的に開発およびスケジューリングできます。

10014

-

KingbaseES ノード

KingbaseES ノードを使用すると、KingbaseES タスクを定期的に開発およびスケジューリングできます。

10015

-

OceanBase ノード

OceanBase ノードを使用すると、OceanBase タスクを定期的に開発およびスケジューリングできます。

10016

-

DB2 ノード

DB2 ノードを使用すると、DB2 タスクを定期的に開発およびスケジューリングできます。

10017

-

GBase 8a ノード

GBase 8a ノードを使用すると、GBase 8a タスクを定期的に開発およびスケジューリングできます。

10018

-

アルゴリズム

PAI Designer

PAI Designer は、エンドツーエンドの機械学習開発ワークフローを構築するためのビジュアルモデリングツールです。

1117

PAI_STUDIO

PAI DLC

PAI DLC は、分散トレーニングタスクを実行するために使用されるコンテナーベースのトレーニングサービスです。

1119

PAI_DLC

PAI Flow

PAI ナレッジベースインデックスワークフローのために DataWorks で PAIFlow ノードを生成します。

1250

PAI_FLOW

ロジックノード

SUB_PROCESS ノード

SUB_PROCESS ノードは、複数のワークフローを統一された全体に統合して管理およびスケジューリングします。

1122

SUB_PROCESS

ノードの作成

定期ワークフロー用のノードの作成

タスクを時間ごと、日ごと、または週ごとなど、指定した時間に自動的に実行する必要がある場合は、定期タスクノードを作成できます。新しい定期タスクノードを作成したり、定期ワークフローに内部ノードを追加したり、既存のノードをクローンしたりできます。

  1. DataWorks コンソールの ワークスペース ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列で [ショートカット] > [Data Studio] を選択します。

  2. 左側のナビゲーションウィンドウで image をクリックして、Data Studio ページに移動します。

定期タスクノードの作成

  1. ワークスペースディレクトリの右側にある image をクリックし、[ノードの作成] を選択します。ノードタイプ を選択します。

    重要

    システムは、一般的なノードと [すべてのノード] のリストを提供します。下部にある [すべてのノード] を選択して、完全なリストを表示できます。また、[検索ボックス] を使用してノードをすばやく見つけたり、MaxCompute、データ統合、汎用などの [カテゴリ] でフィルタリングして、必要なノードを見つけて作成することもできます。

    事前にフォルダを作成して、ノードを整理および管理できます。
  2. ノード名を設定し、保存してノードエディターページに移動します。

定期ワークフローでの内部ノードの作成

  1. 定期ワークフロー を作成します。

  2. ワークフローキャンバスで、ツールバーの [ノードの作成] をクリックします。タスクの ノードタイプ を選択し、キャンバスにドラッグします。

  3. ノード名を設定し、保存します。

クローンによるノードの作成

クローン機能を使用すると、既存のノードから新しいノードをすばやく作成できます。クローンされる内容には、[スケジューリングパラメーター][スケジューリング時間][スケジューリング依存関係] などのノードのスケジューリング情報が含まれます。

  1. 左側のナビゲーションウィンドウの [ワークスペースディレクトリ] で、クローンするノードを右クリックし、ポップアップメニューから [クローン] を選択します。

  2. 表示されるダイアログボックスで、ノードの [名前][パス] を変更するか、デフォルト値を維持します。次に、[OK] をクリックしてクローンを開始します。

  3. クローンが完了したら、[ワークスペースディレクトリ] で新しいノードを表示できます。

手動トリガーワークフロー用のノードの作成

タスクが定期的なスケジュールを必要とせず、手動で実行するために本番環境に公開する必要がある場合は、手動トリガーワークフローで内部ノードを作成できます。

  1. DataWorks コンソールの ワークスペース ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列で [ショートカット] > [Data Studio] を選択します。

  2. 左側のナビゲーションウィンドウで image をクリックして、手動トリガーワークフローページに移動します。

    1. 手動トリガーワークフロー を作成します。

    2. 手動トリガーワークフローエディターページの上部にあるツールバーで、[内部ノードの作成] をクリックします。タスクの ノードタイプ を選択します。

    3. ノード名を設定し、保存します。

ワンタイムタスクノードの作成

  1. DataWorks コンソールの ワークスペース ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列で [ショートカット] > [Data Studio] を選択します。

  2. 左側のナビゲーションウィンドウで image をクリックして、ワンタイムタスクページに移動します。

  3. 「手動でトリガーされるタスク」セクションで、[手動でトリガーされるタスク] の右側にある image をクリックし、[ノードの作成] を選択し、必要なノードタイプを選択します。

    説明

    ワンタイムタスクでは、[バッチ同期][Notebook][MaxCompute SQL][MaxCompute Script][PyODPS 2][MaxCompute MR][Hologres SQL][Python]、および [Shell] ノードの作成のみがサポートされています。

  4. ノード名を設定し、保存してノードエディターページに移動します。

ノードの一括編集

ワークフローに多数のノードが含まれている場合、それらを個別に開いて編集するのは非効率です。DataWorks は [内部ノードリスト] 機能を提供しており、キャンバスの右側にあるリストですべてのノードをすばやくプレビュー、検索、一括編集できます。

使用方法

  1. ワークフローキャンバスの上部にあるツールバーで、[内部ノードリストの表示] ボタンをクリックして、右側のパネルを開きます。

    image

  2. パネルが開くと、現在のワークフロー内のすべてのノードがリストとして表示されます。

    • コードのプレビューと並べ替え

      • MaxCompute SQL など、コード編集をサポートするノードの場合、コードエディターはデフォルトで展開されます。

      • ゼロロードノードなど、コード編集をサポートしないノードの場合、カードが表示されます。これらのノードは自動的にリストの下部に配置されます。

    • クイック検索と特定

      • 検索:上部の検索ボックスにキーワードを入力して、ノード名のあいまい検索を実行できます。

      • 同期フォーカス:キャンバスとサイドバーは同期されます。キャンバスでノードを選択すると、サイドバーで対応するノードがハイライトされます。同様に、サイドバーでノードをクリックすると、キャンバスが自動的にそのノードにフォーカスします。

    • オンライン編集

      • 操作:各ノードカードの右上隅には、[最新コードの読み込み][ノードを開く][編集] などのショートカットがあります。

      • 自動保存:編集モードに入った後、マウスのフォーカスがコードブロック領域から離れると、変更は自動的に保存されます。

      • 競合検出:編集中に別のユーザーがコードを更新した場合、保存時に失敗通知が表示されます。これにより、変更が誤って上書きされるのを防ぎます。

    • フォーカスモード

      • ノードを選択し、フローティングウィンドウの右上隅にある image をクリックして [フォーカスモード] を有効にします。サイドバーには選択したノードのみが表示され、コード編集のためのスペースが広くなります。

バージョン管理

バージョン管理機能を使用して、ノードを特定の履歴バージョンに復元できます。この機能は、バージョンの表示と比較のためのツールも提供しており、違いを分析して調整するのに役立ちます。

  1. 左側のナビゲーションウィンドウの [ワークスペースディレクトリ] で、ターゲットノード名をダブルクリックしてノードエディターページに移動します。

  2. ノードエディターページの右側で、[バージョン] をクリックします。[バージョン] ページでは、[開発履歴][デプロイ履歴] を表示および管理できます。

    • [表示] バージョン:

      1. [開発履歴] または [デプロイ履歴] タブで、表示したいノードのバージョンを見つけます。

      2. [操作] 列の [表示] をクリックして詳細ページを開きます。このページでは、ノードコード[スケジューリング] 情報を表示できます。

        説明

        [スケジューリング] 情報は、[コードエディタ] または [可視化] モードで表示できます。[スケジューリング] タブの右上隅で表示モードを切り替えることができます。

    • 比較 バージョン

      [開発履歴] または [デプロイ履歴] タブで、ノードの異なるバージョンを比較できます。

      • 開発環境またはデプロイ環境でのバージョンの比較[開発履歴] タブで、2つのバージョンを選択し、上部にある [比較するバージョンを選択] をクリックします。その後、異なるバージョンのノードコードとスケジューリング構成を比較できます。

      • 開発環境とデプロイ環境またはビルド環境間のバージョンの比較

        1. [開発履歴] タブで、ノードのバージョンを見つけます。

        2. [操作] 列の [比較] をクリックします。詳細ページで、[デプロイ履歴] または [ビルド履歴] からバージョンを選択して比較できます。

    • [復元]バージョン に:

      ノードを特定の履歴バージョンに復元できるのは、[開発履歴] タブからのみです。[開発履歴] タブで、ターゲットバージョンを見つけ、[操作] 列の [復元] をクリックします。ノードのコードと [スケジューリング] 情報が選択したバージョンに復元されます。

参考

よくある質問

SQL や Python などのノードコードをローカルマシンにダウンロードできますか?

  • 回答:直接ダウンロード機能はありません。回避策として、開発中にコードをローカルマシンにコピーできます。または、新しい DataStudio では、個人フォルダに ローカルファイルを追加 して開発できます。開発後、コードをワークスペースディレクトリに送信できます。この場合、コードはローカルに保存されます。