DataWorks DataStudio は、さまざまなデータ処理ニーズに対応するために、多様なノードを提供します。データ統合ノードを使用して同期を行い、MaxCompute SQL、Hologres SQL、EMR Hive などのエンジン計算ノードを使用してデータクレンジングを行い、ゼロロードノードや do-while ループノードなどの汎用ノードを使用して複雑なロジック処理を行うことができます。これらのノードを連携させることで、さまざまなデータ処理の課題に効果的に対応できます。
サポートされているノードタイプ
次の表は、定期スケジュールでサポートされているノードタイプの一覧です。ワンタイムタスクや手動トリガーワークフローでサポートされているノードタイプは異なる場合があります。最も正確な情報については、UI をご参照ください。
ノードの可用性は DataWorks のエディションやリージョンによって異なります。最も正確な情報については、UI をご参照ください。
ノードタイプ | ノード名 | 説明 | ノードコード | TaskType |
Notebook | Notebook は、データ処理と分析のための柔軟でインタラクティブなプラットフォームを提供します。直感性、モジュール性、インタラクションを向上させることで、データ処理、探索、可視化、モデル構築をより効率的にします。 | 1323 | NOTEBOOK | |
データ統合 | 定期的なバッチデータ同期に使用されます。複雑なシナリオで、さまざまな異種データソース間のデータ同期をサポートします。 バッチ同期でサポートされているデータソースの詳細については、「サポートされているデータソースと同期ソリューション」をご参照ください。 | 23 | DI | |
DataWorks のリアルタイムデータ同期機能を使用すると、ソースデータベースからターゲットデータベースへのデータ変更をリアルタイムで同期できます。これにより、データ整合性が確保されます。単一のテーブルまたはデータベース全体を同期できます。 リアルタイム同期でサポートされているデータソースの詳細については、「サポートされているデータソースと同期ソリューション」をご参照ください。 | 900 | RI | ||
MaxCompute | MaxCompute SQL タスクの定期的なスケジューリングをサポートします。MaxCompute SQL タスクは SQL ライクな構文を使用し、リアルタイム性能が重要でない大規模データセット (テラバイトスケール) の分散処理に適しています。 | 10 | ODPS_SQL | |
SQL スクリプトテンプレートは、複数の入力および出力パラメーターを持つ SQL コードテンプレートです。ソーステーブルのデータをフィルタリング、結合、集約することで、データを処理し、結果テーブルを生成します。データ開発中に、SQL スクリプトテンプレートノードを作成し、これらの事前定義されたコンポーネントを使用して、データ処理フローを迅速に構築できます。これにより、開発効率が大幅に向上します。 | 1010 | COMPONENT_SQL | ||
複数の SQL 文を単一のスクリプトにまとめてコンパイルおよび実行します。これは、ネストされたサブクエリや複数ステップの操作など、複雑なクエリシナリオに最適です。スクリプト全体を一度に送信することで、統一された実行計画が生成されます。ジョブは一度だけキューに入れられて実行されるため、リソースの使用効率が向上します。 | 24 | ODPS_SQL_SCRIPT | ||
MaxCompute 用の Python SDK を統合します。これにより、PyODPS 2 ノードで直接 Python コードを記述および編集して、MaxCompute でのデータ処理および分析タスクを実行できます。 | 221 | PY_ODPS | ||
PyODPS 3 ノードを使用して、Python で直接 MaxCompute ジョブを記述し、定期的なスケジューリング用に構成します。 | 1221 | PYODPS3 | ||
DataWorks は、MaxCompute に基づくオフライン Spark ジョブ (クラスターモード) の実行をサポートします。 | 225 | ODPS_SPARK | ||
MaxCompute MR ノードを作成してスケジューリングに送信し、MapReduce Java API を使用して MapReduce プログラムを記述します。これにより、MaxCompute の大規模なデータセットを処理できます。 | 11 | ODPS_MR | ||
Hologres で MaxCompute データのクエリを高速化する必要がある場合、データカタログの MaxCompute メタデータマッピング機能を使用できます。これにより、MaxCompute テーブルのメタデータが Hologres にマッピングされ、Hologres の外部テーブルを使用して MaxCompute データのクエリを高速化できます。 | - | - | ||
単一の MaxCompute テーブルから Hologres へのデータ同期をサポートします。これにより、効率的なビッグデータ分析とリアルタイムクエリが容易になります。 | - | - | ||
Hologres | Hologres SQL ノードは、Hologres インスタンス内のデータのクエリをサポートします。Hologres と MaxCompute は、基盤となるレイヤーでシームレスに接続されています。これにより、Hologres SQL ノードを使用して、データ移行なしで標準の PostgreSQL 文を使用して MaxCompute の大規模なデータを直接クエリおよび分析できます。これにより、迅速なクエリ結果が提供されます。 | 1093 | HOLOGRES_SQL | |
単一の Hologres テーブルから MaxCompute へのデータ移行をサポートします。 | 1070 | HOLOGRES_SYNC_DATA_TO_MC | ||
ワンクリックでテーブルスキーマをインポートする機能を提供します。これにより、MaxCompute テーブルと同じスキーマを持つ Hologres 外部テーブルをバッチで迅速に作成できます。 | 1094 | HOLOGRES_SYNC_DDL | ||
ワンクリックデータ同期機能を提供します。これにより、MaxCompute から Hologres データベースにデータを迅速に同期できます。 | 1095 | HOLOGRES_SYNC_DATA | ||
Serverless Spark | Serverless Spark に基づく Spark ノードで、大規模なデータ処理に適しています。 | 2100 | SERVERLESS_SPARK_BATCH | |
Serverless Spark に基づく SQL クエリノードです。標準の SQL 構文をサポートし、高性能なデータ分析機能を提供します。 | 2101 | SERVERLESS_SPARK_SQL | ||
Kyuubi JDBC/ODBC インターフェイスを介して Serverless Spark に接続し、マルチテナントの Spark SQL サービスを提供します。 | 2103 | SERVERLESS_KYUUBI | ||
Severless StarRocks | EMR Serverless StarRocks に基づく SQL ノードです。オープンソースの StarRocks の SQL 構文と互換性があり、非常に高速なオンライン分析処理 (OLAP) クエリ分析と Lakehouse クエリ分析を提供します。 | 2104 | SERVERLESS_STARROCKS | |
大規模モデル | データ処理、分析、マイニングのための組み込みエンジンを備えています。自然言語の指示に基づいて、データクレンジングとマイニングをインテリジェントに実行します。 | 2200 | LLM_NODE | |
Flink | 標準の SQL 文を使用してリアルタイムタスクの処理ロジックを定義することをサポートします。使いやすく、豊富な SQL をサポートし、強力な状態管理とフォールトトレランスを備えています。イベント時間と処理時間と互換性があり、柔軟に拡張できます。このノードは、Kafka や HDFS などのシステムと簡単に統合でき、詳細なログとパフォーマンス監視ツールを提供します。 | 2012 | FLINK_SQL_STREAM | |
標準の SQL 文を使用してデータ処理タスクを定義および実行できます。大規模なデータセットの分析と変換に適しており、データクレンジングや集約などが含まれます。このノードは視覚的な構成をサポートし、大規模なバッチ処理のための効率的で柔軟なソリューションを提供します。 | 2011 | FLINK_SQL_BATCH | ||
EMR | SQL ライクな文を使用して、大規模なデータセットの読み取り、書き込み、管理を行います。これにより、大量のログデータを効率的に分析および開発できます。 | 227 | EMR_HIVE | |
ペタバイト規模のビッグデータに対する高速なリアルタイムクエリのためのインタラクティブな SQL クエリエンジンです。 | 260 | EMR_IMPALA | ||
大規模なデータセットを複数の並列 Map タスクに分割し、データ処理効率を大幅に向上させます。 | 230 | EMR_MR | ||
標準の SQL クエリ言語を使用してビッグデータのインタラクティブな分析をサポートする、柔軟でスケーラブルな分散 SQL クエリエンジンです。 | 259 | EMR_PRESTO | ||
カスタム Shell スクリプトを編集して、データ処理、Hadoop コンポーネントの呼び出し、ファイル操作などの高度な機能を使用できます。 | 257 | EMR_SHELL | ||
高性能、使いやすさ、幅広い適用性で知られる汎用ビッグデータ分析エンジンです。複雑なインメモリコンピューティングをサポートし、大規模で低レイテンシーのデータ分析アプリケーションの構築に最適です。 | 228 | EMR_SPARK | ||
分散 SQL クエリエンジンを実装して、構造化データを処理し、ジョブの実行効率を向上させます。 | 229 | EMR_SPARK_SQL | ||
高スループットのリアルタイムストリーミングデータを処理するために使用されます。失敗したデータストリームを迅速に回復できるフォールトトレランスメカニズムを備えています。 | 264 | EMR_SPARK_STREAMING | ||
複数のデータソースにまたがるインタラクティブな分析に適した分散 SQL クエリエンジンです。 | 267 | EMR_TRINO | ||
Spark、Flink、Trino などのデータレイククエリエンジンに SQL やその他のクエリサービスを提供する、分散型マルチテナントゲートウェイです。 | 268 | EMR_KYUUBI | ||
ADB | 定期的な AnalyticDB for PostgreSQL タスクを開発およびスケジュールします。 | 1000090 | - | |
定期的な AnalyticDB for MySQL タスクを開発およびスケジュールします。 | 1000126 | - | ||
定期的な AnalyticDB Spark タスクを開発およびスケジュールします。 | 1990 | ADB_SPARK | ||
定期的な AnalyticDB Spark SQL タスクを開発およびスケジュールします。 | 1991 | ADB_SPARK_SQL | ||
CDH | CDH クラスターをデプロイ済みで、DataWorks を使用して Hive タスクを実行する場合にこのノードを使用します。 | 270 | CDH_HIVE | |
高性能、使いやすさ、幅広い適用性を備えた汎用ビッグデータ分析エンジンです。複雑なインメモリ分析に使用し、大規模で低レイテンシーのデータ分析アプリケーションを構築します。 | 271 | CDH_SPARK | ||
分散 SQL クエリエンジンを実装して、構造化データを処理し、ジョブの実行効率を向上させます。 | 272 | CDH_SPARK_SQL | ||
超大規模なデータセットを処理します。 | 273 | CDH_MR | ||
このノードは分散 SQL クエリエンジンを提供し、CDH 環境のデータ分析能力を強化します。 | 278 | CDH_PRESTO | ||
CDH Impala ノードを使用すると、Impala SQL スクリプトを記述および実行でき、より高速なクエリパフォーマンスを提供します。 | 279 | CDH_IMPALA | ||
Lindorm | 定期的な Lindorm Spark タスクを開発およびスケジュールします。 | 1800 | LINDORM_SPARK | |
定期的な Lindorm Spark SQL タスクを開発およびスケジュールします。 | 1801 | LINDORM_SPARK_SQL | ||
ClickHouse | 分散 SQL クエリを実行し、構造化データを処理してジョブの実行効率を向上させます。 | 1301 | CLICK_SQL | |
Data Quality | データ品質監視ルールを構成して、データソース内のテーブルのデータ品質を監視します。たとえば、ダーティデータをチェックします。また、スケジューリングポリシーをカスタマイズして、データ検証のための監視ジョブを定期的に実行することもできます。 | 1333 | DATA_QUALITY_MONITOR | |
比較ノードを使用すると、さまざまな方法で異なるテーブルのデータを比較できます。 | 1331 | DATA_SYNCHRONIZATION_QUALITY_CHECK | ||
汎用 | ゼロロードノードはコントロールノードです。データを生成しないドライランノードです。通常、ワークフローのルートノードとして使用され、ノードとワークフローの管理に役立ちます。 | 99 | VIRTUAL | |
パラメーターの受け渡しに使用されます。ノードの出力は、最後のクエリまたは出力の結果をノードコンテキストを介して下流ノードに渡します。これにより、ノード間のパラメーターの受け渡しが可能になります。 | 1100 | CONTROLLER_ASSIGNMENT | ||
Shell ノードは標準の Shell 構文をサポートしますが、インタラクティブな構文はサポートしません。 | 6 | DIDE_SHELL | ||
先祖ノードからのパラメーターを集約し、子孫ノードに渡します。 | 1115 | PARAM_HUB | ||
OSS オブジェクトを監視することで、子孫ノードの実行をトリガーします。 | 239 | OSS_INSPECT | ||
Python 3 をサポートします。スケジューリング構成のスケジューリングパラメーターを介して、上流のパラメーターを取得し、カスタムパラメーターを構成できます。また、自身の出力をパラメーターとして下流ノードに渡すこともできます。 | 1322 | Python | ||
先祖ノードの実行ステータスをマージして、ブランチノードの子孫ノードの依存関係の添付と実行トリガーの問題を解決します。 | 1102 | CONTROLLER_JOIN | ||
先祖ノードの結果を評価して、どのブランチロジックに従うかを決定します。代入ノードと組み合わせて使用できます。 | 1101 | CONTROLLER_BRANCH | ||
代入ノードによって渡された結果セットを走査します。 | 1106 | CONTROLLER_TRAVERSE | ||
ノードロジックの一部をループします。代入ノードと組み合わせて、代入ノードによって渡された結果をループすることもできます。 | 1103 | CONTROLLER_CYCLE | ||
ターゲットオブジェクト (MaxCompute パーティションテーブル、FTP ファイル、または OSS ファイル) がアクティブかどうかをチェックします。チェックノードがチェックポリシーを満たすと、成功した実行ステータスを返します。下流の依存関係がある場合、正常に実行され、下流のタスクをトリガーします。サポートされているターゲットオブジェクト:
| 241 | CHECK_NODE | ||
イベント処理関数の定期的なスケジューリングに使用されます。 | 1330 | FUNCTION_COMPUTE | ||
別の CDN マッピングシステム内のタスクが完了した後に DataWorks 内のタスクをトリガーする場合に、このノードを使用します。 説明 DataWorks は、クロステナントコラボレーションノードの作成をサポートしなくなりました。クロステナントコラボレーションノードを使用している場合は、同じ機能を提供する HTTP トリガーノードに置き換えてください。 | 1114 | SCHEDULER_TRIGGER | ||
SSH データソースを指定して、DataWorks からそのデータソースに接続されているホストにリモートでアクセスし、リモートホストでスクリプトを実行するようにトリガーできます。 | 1321 | SSH | ||
データプッシュノードは、データプッシュ先を作成することで、DataStudio ワークフロー内の他のノードによって生成されたクエリ結果を DingTalk グループ、Lark グループ、WeCom グループ、Teams、およびメールボックスにプッシュできます。 | 1332 | DATA_PUSH | ||
MySQL ノード | MySQL ノードを使用すると、定期的な MySQL タスクを開発およびスケジュールできます。 | 1000125 | - | |
SQL Server | SQL Server ノードを使用すると、定期的な SQL Server タスクを開発およびスケジュールできます。 | 10001 | - | |
Oracle ノード | Oracle ノードを使用すると、定期的な Oracle タスクを開発およびスケジュールできます。 | 10002 | - | |
PostgreSQL ノード | PostgreSQL ノードを使用すると、定期的な PostgreSQL タスクを開発およびスケジュールできます。 | 10003 | - | |
StarRocks ノード | 定期的な StarRocks タスクを開発およびスケジュールします。 | 10004 | - | |
DRDS ノード | 定期的な DRDS タスクを開発およびスケジュールします。 | 10005 | - | |
PolarDB MySQL ノード | 定期的な PolarDB for MySQL タスクを開発およびスケジュールします。 | 10006 | - | |
PolarDB PostgreSQL ノード | PolarDB PostgreSQL ノードを使用すると、定期的な PolarDB for PostgreSQL タスクを開発およびスケジュールできます。 | 10007 | - | |
Doris ノード | Doris ノードを使用すると、定期的な Doris タスクを開発およびスケジュールできます。 | 10008 | - | |
MariaDB ノード | MariaDB ノードを使用すると、定期的な MariaDB タスクを開発およびスケジュールできます。 | 10009 | - | |
SelectDB ノード | SelectDB ノードを使用すると、定期的な SelectDB タスクを開発およびスケジュールできます。 | 10010 | - | |
Redshift ノード | Redshift ノードを使用すると、定期的な Redshift タスクを開発およびスケジュールできます。 | 10011 | - | |
Saphana ノード | Saphana ノードを使用すると、定期的な Saphana タスクを開発およびスケジュールできます。 | 10012 | - | |
Vertica ノード | Vertica ノードを使用すると、定期的な Vertica タスクを開発およびスケジュールできます。 | 10013 | - | |
DM (Dameng) ノード | DM ノードを使用すると、定期的な DM タスクを開発およびスケジュールできます。 | 10014 | - | |
KingbaseES ノード | KingbaseES ノードを使用すると、定期的な KingbaseES タスクを開発およびスケジュールできます。 | 10015 | - | |
OceanBase ノード | OceanBase ノードを使用すると、定期的な OceanBase タスクを開発およびスケジュールできます。 | 10016 | - | |
DB2 ノード | DB2 ノードを使用すると、定期的な DB2 タスクを開発およびスケジュールできます。 | 10017 | - | |
GBase 8a ノード | GBase 8a ノードを使用すると、定期的な GBase 8a タスクを開発およびスケジュールできます。 | 10018 | - | |
アルゴリズム | PAI Designer は、エンドツーエンドの機械学習開発ワークフローを構築するためのビジュアルモデリングツールです。 | 1117 | PAI_STUDIO | |
PAI DLC は、分散トレーニングタスクを実行するために使用されるコンテナーベースのトレーニングサービスです。 | 1119 | PAI_DLC | ||
PAI ナレッジベースインデックスワークフローのために、DataWorks で PAIFlow ノードを生成します。 | 1250 | PAI_FLOW | ||
ロジックノード | SUB_PROCESS ノードは、複数のワークフローを統合して、管理とスケジューリングのために統一された全体にします。 | 1122 | SUB_PROCESS |
ノードの作成
定期ワークフローのノードを作成する
タスクを時間単位、日単位、週単位など、指定した時間に自動的に実行する必要がある場合は、定期タスクノードを作成できます。新しい定期タスクノードを作成したり、定期ワークフローに内部ノードを追加したり、既存のノードをクローンしたりできます。
DataWorks コンソールの [ワークスペース] ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列の を選択します。
左側のナビゲーションウィンドウで、
をクリックしてデータ開発ページに移動します。
定期タスクノードの作成
プロジェクトフォルダの右側にある
をクリックし、[ノードの作成] を選択します。ノードタイプを選択します。重要システムは、共通ノードと すべてのノード のリストを提供します。下部にある すべてのノード を選択して、完全なリストを表示できます。また、検索ボックス を使用してノードをすばやく見つけたり、MaxCompute、データ統合、汎用などの カテゴリ でフィルタリングして、必要なノードを見つけて作成することもできます。
事前にフォルダを作成して、ノードを整理および管理できます。
ノード名を設定して保存し、ノードエディターページに移動します。
定期ワークフローでの内部ノードの作成
クローンによるノードの作成
クローン機能を使用して、既存のノードから新しいノードを迅速に作成できます。クローンされるコンテンツには、ノードの [スケジュール] 情報が含まれ、これには [パラメーター]、[繰り返し]、[依存関係] が含まれます。
左側のナビゲーションウィンドウの [プロジェクトフォルダ] で、クローンするノードを右クリックし、ポップアップメニューから [クローン] を選択します。
表示されるダイアログボックスで、ノードの [名前] と [パス] を変更するか、デフォルト値を維持できます。その後、[OK] をクリックしてクローンを開始します。
クローンが完了したら、[プロジェクトフォルダ] で新しいノードを表示できます。
手動トリガーワークフローのノードを作成する
タスクに定期的なスケジュールは必要ないが、手動実行のために本番環境に公開する必要がある場合は、手動トリガーワークフローに内部ノードを作成できます。
DataWorks コンソールの [ワークスペース] ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列の を選択します。
左側のナビゲーションウィンドウで、
をクリックして手動トリガーワークフローページに移動します。手動トリガーワークフローを作成します。
手動トリガーワークフローエディターページの上部にあるツールバーで、[内部ノードの作成] をクリックします。タスクの ノードタイプ を選択します。
ノード名を設定して保存します。
ワンタイムタスクノードの作成
DataWorks コンソールの [ワークスペース] ページに移動します。上部のナビゲーションバーで、目的のリージョンを選択します。目的のワークスペースを見つけ、[操作] 列の を選択します。
左側のナビゲーションウィンドウで、
をクリックしてワンタイムタスクページに移動します。ワンタイムタスクセクションで、[ワンタイムタスク] の右にある
をクリックし、[ノードの作成] を選択し、次に必要なノードタイプを選択します。説明ワンタイムタスクは、[バッチ同期]、[Notebook]、[MaxCompute SQL]、[MaxCompute スクリプト]、[PyODPS 2]、[MaxCompute MR]、[Hologres SQL]、[Python]、および [Shell] ノードの作成のみをサポートします。
ノード名を設定して保存し、ノードエディターページに移動します。
ノードの一括編集
ワークフローに多数のノードが含まれている場合、それらを個別に開いて編集するのは非効率です。DataWorks は [内部ノードリスト] 機能を提供しており、キャンバスの右側にあるリストですべてのノードをすばやくプレビュー、検索、一括編集できます。
使用方法
ワークフローキャンバスの上部にあるツールバーで、[内部ノードリストの表示] ボタンをクリックして、右側のパネルを開きます。

パネルが開くと、現在のワークフロー内のすべてのノードがリストとして表示されます。
コードのプレビューとソート:
MaxCompute SQL など、コード編集をサポートするノードの場合、コードエディターはデフォルトで展開されます。
ゼロロードノードなど、コード編集をサポートしないノードの場合、カードが表示されます。これらのノードは自動的にリストの下部に配置されます。
クイック検索と特定:
検索: 上部の検索ボックスにキーワードを入力して、ノード名のあいまい検索を実行できます。
同期フォーカス: キャンバスとサイドバーは同期されます。キャンバスでノードを選択すると、サイドバーで対応するノードがハイライトされます。同様に、サイドバーでノードをクリックすると、キャンバスが自動的にそのノードにフォーカスします。
オンライン編集:
操作: 各ノードカードの右上隅には、[最新コードの読み込み]、[ノードを開く]、[編集] などのショートカットがあります。
自動保存: 編集モードに入った後、マウスのフォーカスがコードブロック領域から離れると、変更は自動的に保存されます。
競合検出: 編集中に別のユーザーがコードを更新した場合、保存時に失敗通知が表示されます。これにより、変更が誤って上書きされるのを防ぎます。
フォーカスモード:
ノードを選択し、フローティングウィンドウの右上隅にある
をクリックして [フォーカスモード] を有効にします。サイドバーには選択したノードのみが表示され、コード編集のためのスペースが広がります。
バージョン管理
バージョン管理機能を使用して、ノードを特定の履歴バージョンに復元できます。この機能は、バージョンの表示と比較のためのツールも提供し、差異の分析と調整に役立ちます。
左側のナビゲーションウィンドウの [プロジェクトフォルダ] で、ターゲットノード名をダブルクリックしてノードエディターページに移動します。
ノードエディターページの右側で、[バージョン] をクリックします。[バージョン] ページでは、[開発記録] と [デプロイ記録] を表示および管理できます。
バージョンの表示:
[開発記録] または [デプロイ記録] タブで、表示したいノードのバージョンを見つけます。
[操作] 列の [表示] をクリックして詳細ページを開きます。このページでは、ノードコードと [スケジュール] 情報を表示できます。
説明[スケジュール] 情報は、[コードエディタ] または 可視化 モードで表示できます。[スケジュール] タブの右上隅で表示モードを切り替えることができます。
バージョンの比較:
[開発記録] または [デプロイ記録] タブで、ノードの異なるバージョンを比較できます。
開発環境またはデプロイ環境でのバージョンの比較: [開発記録] タブで、2 つのバージョンを選択し、上部にある [選択項目を比較] をクリックします。その後、異なるバージョンのノードコードとスケジューリング構成を比較できます。
開発環境とデプロイ環境またはビルド環境間のバージョンの比較:
[開発記録] タブで、ノードのバージョンを見つけます。
[操作] 列の [比較] をクリックします。詳細ページで、[デプロイ記録] または [ビルド記録] からバージョンを選択して比較できます。
バージョンへの復元:
ノードを特定の履歴バージョンに復元できるのは、[開発記録] タブからのみです。[開発記録] タブで、ターゲットのバージョンを見つけ、[操作] 列の [復元] をクリックします。ノードのコードと [スケジュール] 情報が選択したバージョンに復元されます。
リファレンス
定期ワークフローおよび手動ワークフローでのノード開発の詳細については、「定期ワークフロー」および「手動トリガーワークフロー」をご参照ください。
ノードが作成および開発された後、本番環境に公開できます。詳細については、「ノードのスケジューリング」および「ノードとワークフローの公開」をご参照ください。
よくある質問
SQL や Python などのノードコードをローカルマシンにダウンロードできますか?
回答: 直接ダウンロード機能は利用できません。回避策として、開発中にコードをローカルマシンにコピーできます。または、新しい DataStudio では、個人フォルダに ローカルファイルを追加 して開発を行うことができます。開発後、コードをプロジェクトフォルダに送信できます。この場合、コードはローカルに保存されます。