すべてのプロダクト
Search
ドキュメントセンター

DataWorks:ノード開発

最終更新日:Nov 09, 2025

DataWorks DataStudio は、さまざまなデータ処理ニーズに対応するために、多様なノードを提供します。データ統合ノードを使用して同期を行い、MaxCompute SQL、Hologres SQL、EMR Hive などのエンジン計算ノードを使用してデータクレンジングを行い、ゼロロードノードや do-while ループノードなどの汎用ノードを使用して複雑なロジック処理を行うことができます。これらのノードを連携させることで、さまざまなデータ処理の課題に効果的に対応できます。

サポートされているノードタイプ

次の表は、定期スケジュールでサポートされているノードタイプの一覧です。ワンタイムタスクや手動トリガーワークフローでサポートされているノードタイプは異なる場合があります。最も正確な情報については、UI をご参照ください。

説明

ノードの可用性は DataWorks のエディションやリージョンによって異なります。最も正確な情報については、UI をご参照ください。

ノードタイプ

ノード名

説明

ノードコード

TaskType

Notebook

Notebook 開発

Notebook は、データ処理と分析のための柔軟でインタラクティブなプラットフォームを提供します。直感性、モジュール性、インタラクションを向上させることで、データ処理、探索、可視化、モデル構築をより効率的にします。

1323

NOTEBOOK

データ統合

バッチ同期ノード

定期的なバッチデータ同期に使用されます。複雑なシナリオで、さまざまな異種データソース間のデータ同期をサポートします。

バッチ同期でサポートされているデータソースの詳細については、「サポートされているデータソースと同期ソリューション」をご参照ください。

23

DI

リアルタイム同期ノード

DataWorks のリアルタイムデータ同期機能を使用すると、ソースデータベースからターゲットデータベースへのデータ変更をリアルタイムで同期できます。これにより、データ整合性が確保されます。単一のテーブルまたはデータベース全体を同期できます。

リアルタイム同期でサポートされているデータソースの詳細については、「サポートされているデータソースと同期ソリューション」をご参照ください。

900

RI

MaxCompute

MaxCompute SQL ノード

MaxCompute SQL タスクの定期的なスケジューリングをサポートします。MaxCompute SQL タスクは SQL ライクな構文を使用し、リアルタイム性能が重要でない大規模データセット (テラバイトスケール) の分散処理に適しています。

10

ODPS_SQL

SQL スクリプトテンプレートノード

SQL スクリプトテンプレートは、複数の入力および出力パラメーターを持つ SQL コードテンプレートです。ソーステーブルのデータをフィルタリング、結合、集約することで、データを処理し、結果テーブルを生成します。データ開発中に、SQL スクリプトテンプレートノードを作成し、これらの事前定義されたコンポーネントを使用して、データ処理フローを迅速に構築できます。これにより、開発効率が大幅に向上します。

1010

COMPONENT_SQL

MaxCompute スクリプトノード

複数の SQL 文を単一のスクリプトにまとめてコンパイルおよび実行します。これは、ネストされたサブクエリや複数ステップの操作など、複雑なクエリシナリオに最適です。スクリプト全体を一度に送信することで、統一された実行計画が生成されます。ジョブは一度だけキューに入れられて実行されるため、リソースの使用効率が向上します。

24

ODPS_SQL_SCRIPT

PyODPS 2 ノード

MaxCompute 用の Python SDK を統合します。これにより、PyODPS 2 ノードで直接 Python コードを記述および編集して、MaxCompute でのデータ処理および分析タスクを実行できます。

221

PY_ODPS

PyODPS 3 ノード

PyODPS 3 ノードを使用して、Python で直接 MaxCompute ジョブを記述し、定期的なスケジューリング用に構成します。

1221

PYODPS3

MaxCompute Spark ノード

DataWorks は、MaxCompute に基づくオフライン Spark ジョブ (クラスターモード) の実行をサポートします。

225

ODPS_SPARK

MaxCompute MR ノード

MaxCompute MR ノードを作成してスケジューリングに送信し、MapReduce Java API を使用して MapReduce プログラムを記述します。これにより、MaxCompute の大規模なデータセットを処理できます。

11

ODPS_MR

Hologres へのメタデータマッピング

Hologres で MaxCompute データのクエリを高速化する必要がある場合、データカタログの MaxCompute メタデータマッピング機能を使用できます。これにより、MaxCompute テーブルのメタデータが Hologres にマッピングされ、Hologres の外部テーブルを使用して MaxCompute データのクエリを高速化できます。

-

-

Hologres へのデータ同期

単一の MaxCompute テーブルから Hologres へのデータ同期をサポートします。これにより、効率的なビッグデータ分析とリアルタイムクエリが容易になります。

-

-

Hologres

Hologres SQL ノード

Hologres SQL ノードは、Hologres インスタンス内のデータのクエリをサポートします。Hologres と MaxCompute は、基盤となるレイヤーでシームレスに接続されています。これにより、Hologres SQL ノードを使用して、データ移行なしで標準の PostgreSQL 文を使用して MaxCompute の大規模なデータを直接クエリおよび分析できます。これにより、迅速なクエリ結果が提供されます。

1093

HOLOGRES_SQL

MaxCompute へのデータ同期

単一の Hologres テーブルから MaxCompute へのデータ移行をサポートします。

1070

HOLOGRES_SYNC_DATA_TO_MC

ワンクリック MaxCompute テーブルスキーマ同期ノード

ワンクリックでテーブルスキーマをインポートする機能を提供します。これにより、MaxCompute テーブルと同じスキーマを持つ Hologres 外部テーブルをバッチで迅速に作成できます。

1094

HOLOGRES_SYNC_DDL

ワンクリック MaxCompute データ同期ノード

ワンクリックデータ同期機能を提供します。これにより、MaxCompute から Hologres データベースにデータを迅速に同期できます。

1095

HOLOGRES_SYNC_DATA

Serverless Spark

Serverless Spark バッチノード

Serverless Spark に基づく Spark ノードで、大規模なデータ処理に適しています。

2100

SERVERLESS_SPARK_BATCH

Serverless Spark SQL ノード

Serverless Spark に基づく SQL クエリノードです。標準の SQL 構文をサポートし、高性能なデータ分析機能を提供します。

2101

SERVERLESS_SPARK_SQL

Serverless Kyuubi ノード

Kyuubi JDBC/ODBC インターフェイスを介して Serverless Spark に接続し、マルチテナントの Spark SQL サービスを提供します。

2103

SERVERLESS_KYUUBI

Severless StarRocks

Severless StarRocks SQL ノード

EMR Serverless StarRocks に基づく SQL ノードです。オープンソースの StarRocks の SQL 構文と互換性があり、非常に高速なオンライン分析処理 (OLAP) クエリ分析と Lakehouse クエリ分析を提供します。

2104

SERVERLESS_STARROCKS

大規模モデル

大規模モデルノード

データ処理、分析、マイニングのための組み込みエンジンを備えています。自然言語の指示に基づいて、データクレンジングとマイニングをインテリジェントに実行します。

2200

LLM_NODE

Flink

Flink SQL ストリーミングノード

標準の SQL 文を使用してリアルタイムタスクの処理ロジックを定義することをサポートします。使いやすく、豊富な SQL をサポートし、強力な状態管理とフォールトトレランスを備えています。イベント時間と処理時間と互換性があり、柔軟に拡張できます。このノードは、Kafka や HDFS などのシステムと簡単に統合でき、詳細なログとパフォーマンス監視ツールを提供します。

2012

FLINK_SQL_STREAM

Flink SQL バッチノード

標準の SQL 文を使用してデータ処理タスクを定義および実行できます。大規模なデータセットの分析と変換に適しており、データクレンジングや集約などが含まれます。このノードは視覚的な構成をサポートし、大規模なバッチ処理のための効率的で柔軟なソリューションを提供します。

2011

FLINK_SQL_BATCH

EMR

EMR Hive ノード

SQL ライクな文を使用して、大規模なデータセットの読み取り、書き込み、管理を行います。これにより、大量のログデータを効率的に分析および開発できます。

227

EMR_HIVE

EMR Impala ノード

ペタバイト規模のビッグデータに対する高速なリアルタイムクエリのためのインタラクティブな SQL クエリエンジンです。

260

EMR_IMPALA

EMR MR ノード

大規模なデータセットを複数の並列 Map タスクに分割し、データ処理効率を大幅に向上させます。

230

EMR_MR

EMR Presto ノード

標準の SQL クエリ言語を使用してビッグデータのインタラクティブな分析をサポートする、柔軟でスケーラブルな分散 SQL クエリエンジンです。

259

EMR_PRESTO

EMR Shell ノード

カスタム Shell スクリプトを編集して、データ処理、Hadoop コンポーネントの呼び出し、ファイル操作などの高度な機能を使用できます。

257

EMR_SHELL

EMR Spark ノード

高性能、使いやすさ、幅広い適用性で知られる汎用ビッグデータ分析エンジンです。複雑なインメモリコンピューティングをサポートし、大規模で低レイテンシーのデータ分析アプリケーションの構築に最適です。

228

EMR_SPARK

EMR Spark SQL ノード

分散 SQL クエリエンジンを実装して、構造化データを処理し、ジョブの実行効率を向上させます。

229

EMR_SPARK_SQL

EMR Spark ストリーミングノード

高スループットのリアルタイムストリーミングデータを処理するために使用されます。失敗したデータストリームを迅速に回復できるフォールトトレランスメカニズムを備えています。

264

EMR_SPARK_STREAMING

EMR Trino ノード

複数のデータソースにまたがるインタラクティブな分析に適した分散 SQL クエリエンジンです。

267

EMR_TRINO

EMR Kyuubi ノード

Spark、Flink、Trino などのデータレイククエリエンジンに SQL やその他のクエリサービスを提供する、分散型マルチテナントゲートウェイです。

268

EMR_KYUUBI

ADB

ADB for PostgreSQL ノード

定期的な AnalyticDB for PostgreSQL タスクを開発およびスケジュールします。

1000090

-

ADB for MySQL ノード

定期的な AnalyticDB for MySQL タスクを開発およびスケジュールします。

1000126

-

ADB Spark ノード

定期的な AnalyticDB Spark タスクを開発およびスケジュールします。

1990

ADB_SPARK

ADB Spark SQL ノード

定期的な AnalyticDB Spark SQL タスクを開発およびスケジュールします。

1991

ADB_SPARK_SQL

CDH

CDH Hive ノード

CDH クラスターをデプロイ済みで、DataWorks を使用して Hive タスクを実行する場合にこのノードを使用します。

270

CDH_HIVE

CDH Spark ノード

高性能、使いやすさ、幅広い適用性を備えた汎用ビッグデータ分析エンジンです。複雑なインメモリ分析に使用し、大規模で低レイテンシーのデータ分析アプリケーションを構築します。

271

CDH_SPARK

CDH Spark SQL ノード

分散 SQL クエリエンジンを実装して、構造化データを処理し、ジョブの実行効率を向上させます。

272

CDH_SPARK_SQL

CDH MR ノード

超大規模なデータセットを処理します。

273

CDH_MR

CDH Presto ノード

このノードは分散 SQL クエリエンジンを提供し、CDH 環境のデータ分析能力を強化します。

278

CDH_PRESTO

CDH Impala ノード

CDH Impala ノードを使用すると、Impala SQL スクリプトを記述および実行でき、より高速なクエリパフォーマンスを提供します。

279

CDH_IMPALA

Lindorm

Lindorm Spark ノード

定期的な Lindorm Spark タスクを開発およびスケジュールします。

1800

LINDORM_SPARK

Lindorm Spark SQL ノード

定期的な Lindorm Spark SQL タスクを開発およびスケジュールします。

1801

LINDORM_SPARK_SQL

ClickHouse

ClickHouse SQL

分散 SQL クエリを実行し、構造化データを処理してジョブの実行効率を向上させます。

1301

CLICK_SQL

Data Quality

データ品質監視

データ品質監視ルールを構成して、データソース内のテーブルのデータ品質を監視します。たとえば、ダーティデータをチェックします。また、スケジューリングポリシーをカスタマイズして、データ検証のための監視ジョブを定期的に実行することもできます。

1333

DATA_QUALITY_MONITOR

データ比較

比較ノードを使用すると、さまざまな方法で異なるテーブルのデータを比較できます。

1331

DATA_SYNCHRONIZATION_QUALITY_CHECK

汎用

仮想ノード

ゼロロードノードはコントロールノードです。データを生成しないドライランノードです。通常、ワークフローのルートノードとして使用され、ノードとワークフローの管理に役立ちます。

99

VIRTUAL

代入ノード

パラメーターの受け渡しに使用されます。ノードの出力は、最後のクエリまたは出力の結果をノードコンテキストを介して下流ノードに渡します。これにより、ノード間のパラメーターの受け渡しが可能になります。

1100

CONTROLLER_ASSIGNMENT

Shell ノード

Shell ノードは標準の Shell 構文をサポートしますが、インタラクティブな構文はサポートしません。

6

DIDE_SHELL

パラメーターノード

先祖ノードからのパラメーターを集約し、子孫ノードに渡します。

1115

PARAM_HUB

OSS オブジェクトチェックノード

OSS オブジェクトを監視することで、子孫ノードの実行をトリガーします。

239

OSS_INSPECT

Python ノード

Python 3 をサポートします。スケジューリング構成のスケジューリングパラメーターを介して、上流のパラメーターを取得し、カスタムパラメーターを構成できます。また、自身の出力をパラメーターとして下流ノードに渡すこともできます。

1322

Python

マージノード

先祖ノードの実行ステータスをマージして、ブランチノードの子孫ノードの依存関係の添付と実行トリガーの問題を解決します。

1102

CONTROLLER_JOIN

ブランチノード

先祖ノードの結果を評価して、どのブランチロジックに従うかを決定します。代入ノードと組み合わせて使用できます。

1101

CONTROLLER_BRANCH

for-each ノード

代入ノードによって渡された結果セットを走査します。

1106

CONTROLLER_TRAVERSE

do-while ノード

ノードロジックの一部をループします。代入ノードと組み合わせて、代入ノードによって渡された結果をループすることもできます。

1103

CONTROLLER_CYCLE

チェックノード

ターゲットオブジェクト (MaxCompute パーティションテーブル、FTP ファイル、または OSS ファイル) がアクティブかどうかをチェックします。チェックノードがチェックポリシーを満たすと、成功した実行ステータスを返します。下流の依存関係がある場合、正常に実行され、下流のタスクをトリガーします。サポートされているターゲットオブジェクト:

  • MaxCompute パーティションテーブル

  • FTP ファイル

  • OSS ファイル

  • HDFS

  • OSS-HDFS

241

CHECK_NODE

Function Compute ノード

イベント処理関数の定期的なスケジューリングに使用されます。

1330

FUNCTION_COMPUTE

HTTP トリガーノード

別の CDN マッピングシステム内のタスクが完了した後に DataWorks 内のタスクをトリガーする場合に、このノードを使用します。

説明

DataWorks は、クロステナントコラボレーションノードの作成をサポートしなくなりました。クロステナントコラボレーションノードを使用している場合は、同じ機能を提供する HTTP トリガーノードに置き換えてください。

1114

SCHEDULER_TRIGGER

SSH ノード

SSH データソースを指定して、DataWorks からそのデータソースに接続されているホストにリモートでアクセスし、リモートホストでスクリプトを実行するようにトリガーできます。

1321

SSH

データプッシュノード

データプッシュノードは、データプッシュ先を作成することで、DataStudio ワークフロー内の他のノードによって生成されたクエリ結果を DingTalk グループ、Lark グループ、WeCom グループ、Teams、およびメールボックスにプッシュできます。

1332

DATA_PUSH

データベースノード

MySQL ノード

MySQL ノードを使用すると、定期的な MySQL タスクを開発およびスケジュールできます。

1000125

-

SQL Server

SQL Server ノードを使用すると、定期的な SQL Server タスクを開発およびスケジュールできます。

10001

-

Oracle ノード

Oracle ノードを使用すると、定期的な Oracle タスクを開発およびスケジュールできます。

10002

-

PostgreSQL ノード

PostgreSQL ノードを使用すると、定期的な PostgreSQL タスクを開発およびスケジュールできます。

10003

-

StarRocks ノード

定期的な StarRocks タスクを開発およびスケジュールします。

10004

-

DRDS ノード

定期的な DRDS タスクを開発およびスケジュールします。

10005

-

PolarDB MySQL ノード

定期的な PolarDB for MySQL タスクを開発およびスケジュールします。

10006

-

PolarDB PostgreSQL ノード

PolarDB PostgreSQL ノードを使用すると、定期的な PolarDB for PostgreSQL タスクを開発およびスケジュールできます。

10007

-

Doris ノード

Doris ノードを使用すると、定期的な Doris タスクを開発およびスケジュールできます。

10008

-

MariaDB ノード

MariaDB ノードを使用すると、定期的な MariaDB タスクを開発およびスケジュールできます。

10009

-

SelectDB ノード

SelectDB ノードを使用すると、定期的な SelectDB タスクを開発およびスケジュールできます。

10010

-

Redshift ノード

Redshift ノードを使用すると、定期的な Redshift タスクを開発およびスケジュールできます。

10011

-

Saphana ノード

Saphana ノードを使用すると、定期的な Saphana タスクを開発およびスケジュールできます。

10012

-

Vertica ノード

Vertica ノードを使用すると、定期的な Vertica タスクを開発およびスケジュールできます。

10013

-

DM (Dameng) ノード

DM ノードを使用すると、定期的な DM タスクを開発およびスケジュールできます。

10014

-

KingbaseES ノード

KingbaseES ノードを使用すると、定期的な KingbaseES タスクを開発およびスケジュールできます。

10015

-

OceanBase ノード

OceanBase ノードを使用すると、定期的な OceanBase タスクを開発およびスケジュールできます。

10016

-

DB2 ノード

DB2 ノードを使用すると、定期的な DB2 タスクを開発およびスケジュールできます。

10017

-

GBase 8a ノード

GBase 8a ノードを使用すると、定期的な GBase 8a タスクを開発およびスケジュールできます。

10018

-

アルゴリズム

PAI Designer ノード

PAI Designer は、エンドツーエンドの機械学習開発ワークフローを構築するためのビジュアルモデリングツールです。

1117

PAI_STUDIO

PAI DLC ノード

PAI DLC は、分散トレーニングタスクを実行するために使用されるコンテナーベースのトレーニングサービスです。

1119

PAI_DLC

PAI Flow ノード

PAI ナレッジベースインデックスワークフローのために、DataWorks で PAIFlow ノードを生成します。

1250

PAI_FLOW

ロジックノード

SUB_PROCESS ノード

SUB_PROCESS ノードは、複数のワークフローを統合して、管理とスケジューリングのために統一された全体にします。

1122

SUB_PROCESS

ノードの作成

定期ワークフローのノードを作成する

タスクを時間単位、日単位、週単位など、指定した時間に自動的に実行する必要がある場合は、定期タスクノードを作成できます。新しい定期タスクノードを作成したり、定期ワークフローに内部ノードを追加したり、既存のノードをクローンしたりできます。

  1. DataWorks コンソールの [ワークスペース] ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列の [ショートカット] > [Data Studio] を選択します。

  2. 左側のナビゲーションウィンドウで、image をクリックしてデータ開発ページに移動します。

定期タスクノードの作成

  1. プロジェクトフォルダの右側にある image をクリックし、[ノードの作成] を選択します。ノードタイプを選択します。

    重要

    システムは、共通ノードと すべてのノード のリストを提供します。下部にある すべてのノード を選択して、完全なリストを表示できます。また、検索ボックス を使用してノードをすばやく見つけたり、MaxCompute、データ統合、汎用などの カテゴリ でフィルタリングして、必要なノードを見つけて作成することもできます。

    事前にフォルダを作成して、ノードを整理および管理できます。
  2. ノード名を設定して保存し、ノードエディターページに移動します。

定期ワークフローでの内部ノードの作成

  1. 定期ワークフローを作成します。

  2. ワークフローキャンバスで、ツールバーの [ノードの作成] をクリックします。タスクの ノードタイプ を選択し、キャンバスにドラッグします。

  3. ノード名を設定して保存します。

クローンによるノードの作成

クローン機能を使用して、既存のノードから新しいノードを迅速に作成できます。クローンされるコンテンツには、ノードの [スケジュール] 情報が含まれ、これには [パラメーター][繰り返し][依存関係] が含まれます。

  1. 左側のナビゲーションウィンドウの [プロジェクトフォルダ] で、クローンするノードを右クリックし、ポップアップメニューから [クローン] を選択します。

  2. 表示されるダイアログボックスで、ノードの [名前][パス] を変更するか、デフォルト値を維持できます。その後、[OK] をクリックしてクローンを開始します。

  3. クローンが完了したら、[プロジェクトフォルダ] で新しいノードを表示できます。

手動トリガーワークフローのノードを作成する

タスクに定期的なスケジュールは必要ないが、手動実行のために本番環境に公開する必要がある場合は、手動トリガーワークフローに内部ノードを作成できます。

  1. DataWorks コンソールの [ワークスペース] ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列の [ショートカット] > [Data Studio] を選択します。

  2. 左側のナビゲーションウィンドウで、image をクリックして手動トリガーワークフローページに移動します。

    1. 手動トリガーワークフローを作成します。

    2. 手動トリガーワークフローエディターページの上部にあるツールバーで、[内部ノードの作成] をクリックします。タスクの ノードタイプ を選択します。

    3. ノード名を設定して保存します。

ワンタイムタスクノードの作成

  1. DataWorks コンソールの [ワークスペース] ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列の [ショートカット] > [Data Studio] を選択します。

  2. 左側のナビゲーションウィンドウで、image をクリックしてワンタイムタスクページに移動します。

  3. ワンタイムタスクセクションで、[ワンタイムタスク] の右にある image をクリックし、[ノードの作成] を選択し、次に必要なノードタイプを選択します。

    説明

    ワンタイムタスクは、[バッチ同期][Notebook][MaxCompute SQL][MaxCompute スクリプト][PyODPS 2][MaxCompute MR][Hologres SQL][Python]、および [Shell] ノードの作成のみをサポートします。

  4. ノード名を設定して保存し、ノードエディターページに移動します。

ノードの一括編集

ワークフローに多数のノードが含まれている場合、それらを個別に開いて編集するのは非効率です。DataWorks は [内部ノードリスト] 機能を提供しており、キャンバスの右側にあるリストですべてのノードをすばやくプレビュー、検索、一括編集できます。

使用方法

  1. ワークフローキャンバスの上部にあるツールバーで、[内部ノードリストの表示] ボタンをクリックして、右側のパネルを開きます。

    image

  2. パネルが開くと、現在のワークフロー内のすべてのノードがリストとして表示されます。

    • コードのプレビューとソート:

      • MaxCompute SQL など、コード編集をサポートするノードの場合、コードエディターはデフォルトで展開されます。

      • ゼロロードノードなど、コード編集をサポートしないノードの場合、カードが表示されます。これらのノードは自動的にリストの下部に配置されます。

    • クイック検索と特定:

      • 検索: 上部の検索ボックスにキーワードを入力して、ノード名のあいまい検索を実行できます。

      • 同期フォーカス: キャンバスとサイドバーは同期されます。キャンバスでノードを選択すると、サイドバーで対応するノードがハイライトされます。同様に、サイドバーでノードをクリックすると、キャンバスが自動的にそのノードにフォーカスします。

    • オンライン編集:

      • 操作: 各ノードカードの右上隅には、[最新コードの読み込み][ノードを開く][編集] などのショートカットがあります。

      • 自動保存: 編集モードに入った後、マウスのフォーカスがコードブロック領域から離れると、変更は自動的に保存されます。

      • 競合検出: 編集中に別のユーザーがコードを更新した場合、保存時に失敗通知が表示されます。これにより、変更が誤って上書きされるのを防ぎます。

    • フォーカスモード:

      • ノードを選択し、フローティングウィンドウの右上隅にある image をクリックして [フォーカスモード] を有効にします。サイドバーには選択したノードのみが表示され、コード編集のためのスペースが広がります。

バージョン管理

バージョン管理機能を使用して、ノードを特定の履歴バージョンに復元できます。この機能は、バージョンの表示と比較のためのツールも提供し、差異の分析と調整に役立ちます。

  1. 左側のナビゲーションウィンドウの [プロジェクトフォルダ] で、ターゲットノード名をダブルクリックしてノードエディターページに移動します。

  2. ノードエディターページの右側で、[バージョン] をクリックします。[バージョン] ページでは、[開発記録][デプロイ記録] を表示および管理できます。

    • バージョン表示:

      1. [開発記録] または [デプロイ記録] タブで、表示したいノードのバージョンを見つけます。

      2. [操作] 列の [表示] をクリックして詳細ページを開きます。このページでは、ノードコード[スケジュール] 情報を表示できます。

        説明

        [スケジュール] 情報は、[コードエディタ] または 可視化 モードで表示できます。[スケジュール] タブの右上隅で表示モードを切り替えることができます。

    • バージョン比較:

      [開発記録] または [デプロイ記録] タブで、ノードの異なるバージョンを比較できます。

      • 開発環境またはデプロイ環境でのバージョンの比較: [開発記録] タブで、2 つのバージョンを選択し、上部にある [選択項目を比較] をクリックします。その後、異なるバージョンのノードコードとスケジューリング構成を比較できます。

      • 開発環境とデプロイ環境またはビルド環境間のバージョンの比較:

        1. [開発記録] タブで、ノードのバージョンを見つけます。

        2. [操作] 列の [比較] をクリックします。詳細ページで、[デプロイ記録] または [ビルド記録] からバージョンを選択して比較できます。

    • バージョンへの復元:

      ノードを特定の履歴バージョンに復元できるのは、[開発記録] タブからのみです。[開発記録] タブで、ターゲットのバージョンを見つけ、[操作] 列の [復元] をクリックします。ノードのコードと [スケジュール] 情報が選択したバージョンに復元されます。

リファレンス

よくある質問

SQL や Python などのノードコードをローカルマシンにダウンロードできますか?

  • 回答: 直接ダウンロード機能は利用できません。回避策として、開発中にコードをローカルマシンにコピーできます。または、新しい DataStudio では、個人フォルダに ローカルファイルを追加 して開発を行うことができます。開発後、コードをプロジェクトフォルダに送信できます。この場合、コードはローカルに保存されます。