全部产品
Search
文档中心

DataWorks:Pengembangan node

更新时间:Feb 04, 2026

DataWorks DataStudio menyediakan berbagai jenis node untuk memenuhi kebutuhan pemrosesan data yang berbeda. Anda dapat menggunakan node integrasi data untuk sinkronisasi, node komputasi engine seperti MaxCompute SQL, Hologres SQL, dan EMR Hive untuk pembersihan data, serta node umum seperti node beban nol dan node do-while loop untuk pemrosesan logika kompleks. Node-node ini bekerja sama untuk menangani berbagai tantangan pemrosesan data secara efektif.

Jenis node yang didukung

Tabel berikut mencantumkan jenis node yang didukung oleh penjadwalan berulang. Jenis node yang didukung oleh tugas satu kali atau alur kerja yang dipicu secara manual mungkin berbeda. Untuk informasi paling akurat, rujuk UI.

Catatan

Ketersediaan node bervariasi tergantung edisi dan Wilayah DataWorks. Untuk informasi paling akurat, rujuk UI.

Jenis node

Nama node

Deskripsi

Kode node

TaskType

Data Integration

Batch synchronization

Digunakan untuk sinkronisasi data batch berulang. Mendukung sinkronisasi data antara berbagai sumber data yang berbeda dalam skenario kompleks.

Untuk informasi lebih lanjut tentang sumber data yang didukung oleh sinkronisasi batch, lihat Sumber data yang didukung dan solusi sinkronisasi.

23

DI

Real-time synchronization

Fitur sinkronisasi data real-time di DataWorks memungkinkan Anda menyinkronkan perubahan data dari database sumber ke database tujuan secara real-time. Hal ini menjamin konsistensi data. Anda dapat menyinkronkan satu tabel atau seluruh database.

Untuk informasi lebih lanjut tentang sumber data yang didukung oleh sinkronisasi real-time, lihat Sumber data yang didukung dan solusi sinkronisasi.

900

RI

Notebook

Notebook development

Notebook menawarkan platform fleksibel dan interaktif untuk pemrosesan dan analisis data. Platform ini membuat pemrosesan data, eksplorasi, visualisasi, dan pembuatan model menjadi lebih efisien dengan meningkatkan intuitivitas, modularitas, dan interaksi.

1323

NOTEBOOK

MaxCompute

MaxCompute SQL

Mendukung penjadwalan berulang tugas MaxCompute SQL. Tugas MaxCompute SQL menggunakan sintaks mirip SQL dan cocok untuk pemrosesan terdistribusi dataset besar (skala terabyte) di mana kinerja real-time tidak kritis.

10

ODPS_SQL

SQL script template

Template skrip SQL adalah template kode SQL dengan beberapa parameter input dan output. Template ini memproses data dan menghasilkan tabel sink dengan melakukan filter, join, dan agregasi data dari tabel sumber. Selama pengembangan data, Anda dapat membuat node template skrip SQL dan menggunakan komponen yang telah ditentukan ini untuk membangun alur pemrosesan data dengan cepat. Hal ini secara signifikan meningkatkan efisiensi pengembangan.

1010

COMPONENT_SQL

MaxCompute Script

Menggabungkan beberapa pernyataan SQL menjadi satu skrip untuk dikompilasi dan dieksekusi. Ini ideal untuk skenario kueri kompleks, seperti subkueri bersarang atau operasi multi-langkah. Dengan mengirimkan seluruh skrip sekaligus, rencana eksekusi terpadu dihasilkan. Pekerjaan hanya perlu masuk antrian dan dieksekusi sekali, sehingga penggunaan resource lebih efisien.

24

ODPS_SQL_SCRIPT

PyODPS 2

Mengintegrasikan SDK Python untuk MaxCompute. Hal ini memungkinkan Anda menulis dan mengedit kode Python langsung di node PyODPS 2 untuk melakukan tugas pemrosesan dan analisis data di MaxCompute.

221

PY_ODPS

PyODPS 3

Gunakan node PyODPS 3 untuk menulis pekerjaan MaxCompute langsung dalam Python dan mengonfigurasinya untuk penjadwalan berulang.

1221

PYODPS3

MaxCompute Spark

DataWorks mendukung menjalankan pekerjaan Spark offline (dalam mode Cluster) berbasis MaxCompute.

225

ODPS_SPARK

MaxCompute MR

Buat node MaxCompute MR dan kirimkan untuk penjadwalan agar dapat menulis program MapReduce menggunakan API Java MapReduce. Hal ini memungkinkan Anda memproses dataset besar di MaxCompute.

11

ODPS_MR

Map metadata to Hologres

Saat Anda perlu mempercepat kueri pada data MaxCompute di Hologres, Anda dapat menggunakan fitur pemetaan metadata MaxCompute dari katalog data. Fitur ini memetakan metadata tabel MaxCompute ke Hologres, sehingga Anda dapat menggunakan tabel eksternal Hologres untuk mempercepat kueri pada data MaxCompute.

-

-

Sync data to Hologres

Mendukung sinkronisasi data dari satu tabel MaxCompute ke Hologres. Hal ini memfasilitasi analisis data besar dan kueri real-time yang efisien.

-

-

Hologres

Hologres SQL

Node Hologres SQL mendukung kueri pada data di instans Hologres. Hologres dan MaxCompute terhubung secara mulus di lapisan dasar. Hal ini memungkinkan Anda menggunakan node Hologres SQL untuk langsung mengkueri dan menganalisis data skala besar di MaxCompute menggunakan pernyataan PostgreSQL standar tanpa migrasi data. Hasil kueri pun cepat diperoleh.

1093

HOLOGRES_SQL

Sync data to MaxCompute

Mendukung migrasi data dari satu tabel Hologres ke MaxCompute.

1070

HOLOGRES_SYNC_DATA_TO_MC

MaxCompute table schema synchronization

Menyediakan fitur impor skema tabel satu klik. Fitur ini memungkinkan Anda membuat tabel eksternal Hologres secara batch dengan skema yang sama seperti tabel MaxCompute.

1094

HOLOGRES_SYNC_DDL

MaxCompute data synchronization

Menyediakan fitur sinkronisasi data satu klik. Fitur ini memungkinkan Anda menyinkronkan data dari MaxCompute ke database Hologres dengan cepat.

1095

HOLOGRES_SYNC_DATA

Serverless Spark

Serverless Spark Batch

Node Spark berbasis Serverless Spark, cocok untuk pemrosesan data skala besar.

2100

SERVERLESS_SPARK_BATCH

Serverless Spark SQL

Node kueri SQL berbasis Serverless Spark. Mendukung sintaks SQL standar dan menyediakan kemampuan analisis data berkinerja tinggi.

2101

SERVERLESS_SPARK_SQL

Serverless Kyuubi

Terhubung ke Serverless Spark melalui antarmuka JDBC/ODBC Kyuubi untuk menyediakan layanan Spark SQL multitenan.

2103

SERVERLESS_KYUUBI

Severless StarRocks

Serverless StarRocks SQL

Node SQL berbasis EMR Serverless StarRocks. Kompatibel dengan sintaks SQL StarRocks open source dan menyediakan analisis kueri OLAP (Online Analytical Processing) serta analisis kueri Lakehouse yang sangat cepat.

2104

SERVERLESS_STARROCKS

LLM

Large language model

Dilengkapi mesin bawaan untuk pemrosesan, analisis, dan penambangan data. Secara cerdas melakukan pembersihan dan penambangan data berdasarkan instruksi bahasa alami Anda.

2200

LLM_NODE

Flink

Flink SQL Streaming

Mendukung penggunaan pernyataan SQL standar untuk mendefinisikan logika pemrosesan tugas real-time. Mudah digunakan, mendukung SQL yang kaya, serta memiliki manajemen state dan toleransi kesalahan yang kuat. Kompatibel dengan event time dan processing time, serta dapat diperluas secara fleksibel. Node ini mudah diintegrasikan dengan sistem seperti Kafka dan HDFS serta menyediakan log detail dan alat pemantauan kinerja.

2012

FLINK_SQL_STREAM

Flink SQL Batch

Memungkinkan Anda menggunakan pernyataan SQL standar untuk mendefinisikan dan mengeksekusi tugas pemrosesan data. Cocok untuk menganalisis dan mentransformasi dataset besar, termasuk pembersihan dan agregasi data. Node ini mendukung konfigurasi visual dan menyediakan solusi pemrosesan batch skala besar yang efisien dan fleksibel.

2011

FLINK_SQL_BATCH

EMR

EMR Hive

Gunakan pernyataan mirip SQL untuk membaca, menulis, dan mengelola dataset besar. Hal ini memungkinkan analisis dan pengembangan data log skala besar secara efisien.

227

EMR_HIVE

EMR Impala

Mesin kueri SQL interaktif untuk kueri real-time cepat pada data besar skala petabyte.

260

EMR_IMPALA

EMR MR

Membagi dataset besar menjadi beberapa tugas Map paralel, yang secara signifikan meningkatkan efisiensi pemrosesan data.

230

EMR_MR

EMR Presto

Mesin kueri SQL terdistribusi yang fleksibel dan dapat diskalakan, yang mendukung analisis interaktif data besar menggunakan bahasa kueri SQL standar.

259

EMR_PRESTO

EMR Shell

Memungkinkan Anda mengedit skrip Shell kustom untuk menggunakan fitur lanjutan seperti pemrosesan data, pemanggilan komponen Hadoop, dan operasi file.

257

EMR_SHELL

EMR Spark

Mesin analisis data besar serbaguna yang dikenal karena kinerja tinggi, kemudahan penggunaan, dan penerapan luas. Mendukung komputasi in-memory kompleks dan ideal untuk membangun aplikasi analisis data skala besar dengan latensi rendah.

228

EMR_SPARK

EMR Spark SQL

Mengimplementasikan mesin kueri SQL terdistribusi untuk memproses data terstruktur dan meningkatkan efisiensi eksekusi pekerjaan.

229

EMR_SPARK_SQL

EMR Spark Streaming

Digunakan untuk memproses data streaming real-time ber-throughput tinggi. Memiliki mekanisme toleransi kesalahan yang dapat memulihkan aliran data yang gagal dengan cepat.

264

EMR_SPARK_STREAMING

EMR Trino

Mesin kueri SQL terdistribusi yang cocok untuk analisis interaktif lintas berbagai sumber data.

267

EMR_TRINO

EMR Kyuubi

Gerbang terdistribusi dan multitenan yang menyediakan layanan kueri SQL dan lainnya untuk mesin kueri data lake seperti Spark, Flink, atau Trino.

268

EMR_KYUUBI

ADB

ADB for PostgreSQL

Kembangkan dan jadwalkan tugas AnalyticDB for PostgreSQL berulang.

1000090

-

ADB for MySQL

Kembangkan dan jadwalkan tugas AnalyticDB for MySQL berulang.

1000126

-

ADB Spark

Kembangkan dan jadwalkan tugas AnalyticDB Spark berulang.

1990

ADB_SPARK

ADB Spark SQL

Kembangkan dan jadwalkan tugas AnalyticDB Spark SQL berulang.

1991

ADB_SPARK_SQL

CDH

CDH Hive

Gunakan node ini jika Anda telah menerapkan kluster CDH dan ingin menggunakan DataWorks untuk menjalankan tugas Hive.

270

CDH_HIVE

CDH Spark

Mesin analisis data besar serbaguna dengan kinerja tinggi, kemudahan penggunaan, dan penerapan luas. Gunakan untuk analisis in-memory kompleks dan membangun aplikasi analisis data skala besar dengan latensi rendah.

271

CDH_SPARK

CDH Spark SQL

Mengimplementasikan mesin kueri SQL terdistribusi untuk memproses data terstruktur dan meningkatkan efisiensi eksekusi pekerjaan.

272

CDH_SPARK_SQL

CDH MR

Memproses dataset ultra-besar.

273

CDH_MR

CDH Presto

Node ini menyediakan mesin kueri SQL terdistribusi, yang meningkatkan kemampuan analisis data di lingkungan CDH.

278

CDH_PRESTO

CDH Impala

Node CDH Impala memungkinkan Anda menulis dan mengeksekusi skrip SQL Impala, yang memberikan kinerja kueri lebih cepat.

279

CDH_IMPALA

Lindorm

Lindorm Spark

Kembangkan dan jadwalkan tugas Lindorm Spark berulang.

1800

LINDORM_SPARK

Lindorm Spark SQL

Kembangkan dan jadwalkan tugas Lindorm Spark SQL berulang.

1801

LINDORM_SPARK_SQL

ClickHouse

ClickHouse SQL

Menjalankan kueri SQL terdistribusi dan memproses data terstruktur untuk meningkatkan efisiensi eksekusi pekerjaan.

1301

CLICK_SQL

Data Quality

Data quality monitoring

Konfigurasikan aturan pemantauan kualitas data untuk memantau kualitas data tabel di sumber data, misalnya untuk memeriksa data kotor. Anda juga dapat menyesuaikan kebijakan penjadwalan untuk menjalankan pekerjaan pemantauan secara berkala guna validasi data.

1333

DATA_QUALITY_MONITOR

Data comparison

Node perbandingan memungkinkan Anda membandingkan data dari tabel yang berbeda dengan berbagai cara.

1331

DATA_SYNCHRONIZATION_QUALITY_CHECK

General

Virtual node

Node beban nol adalah node kontrol. Ini adalah node simulasi kering yang tidak menghasilkan data. Biasanya digunakan sebagai node akar dalam alur kerja untuk membantu Anda mengelola node dan alur kerja.

99

VIRTUAL

Assignment node

Digunakan untuk pengiriman parameter. Output node mengirimkan hasil kueri terakhir atau output ke node downstream melalui konteks node. Hal ini memungkinkan pengiriman parameter lintas node.

1100

CONTROLLER_ASSIGNMENT

Shell node

Node Shell mendukung sintaks Shell standar tetapi tidak mendukung sintaks interaktif.

6

DIDE_SHELL

Parameter node

Mengumpulkan parameter dari node leluhur dan meneruskannya ke node turunan.

1115

PARAM_HUB

OSS object check node

Memicu eksekusi node turunan dengan memantau objek OSS.

239

OSS_INSPECT

Python node

Mendukung Python 3. Memungkinkan Anda mengambil parameter upstream dan mengonfigurasi parameter kustom melalui parameter penjadwalan dalam konfigurasi penjadwalan. Juga memungkinkan Anda meneruskan output-nya sendiri sebagai parameter ke node downstream.

1322

Python

Merge node

Menggabungkan status running node leluhur untuk menyelesaikan masalah ketergantungan dan pemicu eksekusi untuk node turunan dari node cabang.

1102

CONTROLLER_JOIN

Branch node

Menilai hasil node leluhur untuk menentukan logika cabang mana yang akan diikuti. Anda dapat menggunakannya bersama node assignment.

1101

CONTROLLER_BRANCH

For-each node

Menelusuri set hasil yang diteruskan oleh node assignment.

1106

CONTROLLER_TRAVERSE

do-while node

Loop bagian logika node. Anda juga dapat menggunakannya dengan node assignment untuk loop hasil yang diteruskan oleh node assignment.

1103

CONTROLLER_CYCLE

Check node

Memeriksa apakah objek target (tabel partisi MaxCompute, file FTP, atau file OSS) aktif. Saat node Check memenuhi kebijakan pemeriksaan, node tersebut mengembalikan status running sukses. Jika ada dependensi downstream, node tersebut berjalan sukses dan memicu tugas downstream. Objek target yang didukung:

  • MaxCompute partitioned table

  • FTP file

  • OSS file

  • HDFS

  • OSS-HDFS

241

CHECK_NODE

Function Compute

Digunakan untuk penjadwalan berulang fungsi pemrosesan event.

1330

FUNCTION_COMPUTE

HTTP trigger

Gunakan node ini jika Anda ingin memicu tugas di DataWorks setelah tugas di sistem pemetaan CDN lain selesai.

Catatan

DataWorks tidak lagi mendukung pembuatan cross-tenant collaboration nodes. Jika Anda menggunakan node kolaborasi lintas penyewa, gantilah dengan node HTTP trigger, yang menyediakan kemampuan yang sama.

1114

SCHEDULER_TRIGGER

SSH

Memungkinkan Anda menentukan sumber data SSH untuk mengakses host yang terhubung ke sumber data tersebut dari DataWorks secara remote dan memicu skrip untuk dijalankan di host remote.

1321

SSH

Data Push

Node Data Push dapat mendorong hasil kueri yang dihasilkan oleh node lain dalam alur kerja DataStudio ke grup DingTalk, grup Lark, grup WeCom, Teams, dan kotak surat dengan membuat tujuan dorong data.

1332

DATA_PUSH

Database nodes

MySQL node

Node MySQL memungkinkan Anda mengembangkan dan menjadwalkan tugas MySQL berulang.

1000125

-

SQL Server

Node SQL Server memungkinkan Anda mengembangkan dan menjadwalkan tugas SQL Server berulang.

10001

-

Oracle node

Node Oracle memungkinkan Anda mengembangkan dan menjadwalkan tugas Oracle berulang.

10002

-

PostgreSQL node

Node PostgreSQL memungkinkan Anda mengembangkan dan menjadwalkan tugas PostgreSQL berulang.

10003

-

StarRocks node

Kembangkan dan jadwalkan tugas StarRocks berulang.

10004

-

DRDS node

Kembangkan dan jadwalkan tugas DRDS berulang.

10005

-

PolarDB MySQL node

Kembangkan dan jadwalkan tugas PolarDB for MySQL berulang.

10006

-

PolarDB PostgreSQL node

Node PolarDB PostgreSQL memungkinkan Anda mengembangkan dan menjadwalkan tugas PolarDB for PostgreSQL berulang.

10007

-

Doris node

Node Doris memungkinkan Anda mengembangkan dan menjadwalkan tugas Doris berulang.

10008

-

MariaDB node

Node MariaDB memungkinkan Anda mengembangkan dan menjadwalkan tugas MariaDB berulang.

10009

-

SelectDB node

Node SelectDB memungkinkan Anda mengembangkan dan menjadwalkan tugas SelectDB berulang.

10010

-

Redshift node

Node Redshift memungkinkan Anda mengembangkan dan menjadwalkan tugas Redshift berulang.

10011

-

Saphana node

Node Saphana memungkinkan Anda mengembangkan dan menjadwalkan tugas SAP HANA berulang.

10012

-

Vertica node

Node Vertica memungkinkan Anda mengembangkan dan menjadwalkan tugas Vertica berulang.

10013

-

DM (Dameng) node

Node DM memungkinkan Anda mengembangkan dan menjadwalkan tugas DM berulang.

10014

-

KingbaseES node

Node KingbaseES memungkinkan Anda mengembangkan dan menjadwalkan tugas KingbaseES berulang.

10015

-

OceanBase node

Node OceanBase memungkinkan Anda mengembangkan dan menjadwalkan tugas OceanBase berulang.

10016

-

DB2 node

Node DB2 memungkinkan Anda mengembangkan dan menjadwalkan tugas DB2 berulang.

10017

-

GBase 8a node

Node GBase 8a memungkinkan Anda mengembangkan dan menjadwalkan tugas GBase 8a berulang.

10018

-

Algorithm

PAI Designer

PAI Designer adalah alat pemodelan visual untuk membangun alur kerja pengembangan pembelajaran mesin end-to-end.

1117

PAI_STUDIO

PAI DLC

PAI DLC adalah layanan pelatihan berbasis kontainer yang digunakan untuk menjalankan tugas pelatihan terdistribusi.

1119

PAI_DLC

PAI Flow

Menghasilkan node PAIFlow di DataWorks untuk alur kerja indeks basis pengetahuan PAI.

1250

PAI_FLOW

Logic node

SUB_PROCESS node

Node SUB_PROCESS mengintegrasikan beberapa alur kerja menjadi satu kesatuan untuk dikelola dan dijadwalkan.

1122

SUB_PROCESS

Buat node

Buat node untuk alur kerja terjadwal

Jika tugas Anda perlu berjalan secara otomatis pada waktu tertentu—misalnya, per jam, harian, atau mingguan—Anda dapat membuat node tugas yang dipicu otomatis. Anda dapat membuat node tugas yang dipicu otomatis baru, menambahkan node internal ke alur kerja berulang, atau mengkloning node yang sudah ada.

  1. Buka halaman Workspaces di Konsol DataWorks. Di bilah navigasi atas, pilih Wilayah yang diinginkan. Temukan ruang kerja yang diinginkan dan pilih Shortcuts > Data Studio di kolom Actions.

  2. Di panel navigasi kiri, klik image untuk membuka halaman Data Studio.

Buat node tugas terjadwal

  1. Klik image di sebelah kanan direktori ruang kerja dan pilih Create Node. Pilih jenis node.

    Penting

    Sistem menyediakan daftar Common Nodes dan All Nodes. Anda dapat memilih All Nodes di bagian bawah untuk melihat daftar lengkap. Anda juga dapat menggunakan search box untuk menemukan node dengan cepat atau memfilter berdasarkan kategori, seperti MaxCompute, Data Integration, atau General, guna menemukan dan membuat node yang Anda butuhkan.

    Anda dapat membuat folder terlebih dahulu untuk mengatur dan mengelola node Anda.
  2. Atur nama node, simpan, lalu buka halaman editor node.

Buat node internal dalam alur kerja terjadwal

  1. Buat alur kerja berulang.

  2. Di kanvas alur kerja, klik Create Node di bilah alat. Pilih jenis node untuk tugas Anda dan seret ke kanvas.

  3. Atur nama node dan simpan.

Buat node dengan mengkloning

Anda dapat menggunakan fitur kloning untuk membuat node baru dengan cepat dari node yang sudah ada. Konten yang dikloning mencakup informasi Penjadwalan node, termasuk Scheduling Parameters, Scheduling Time, dan Scheduling Dependencies.

  1. Di Workspace Directories di panel navigasi kiri, klik kanan node yang akan dikloning dan pilih Clone dari menu pop-up.

  2. Pada kotak dialog yang muncul, Anda dapat mengubah Name dan Path node, atau mempertahankan nilai default. Lalu, klik OK untuk memulai proses kloning.

  3. Setelah kloning selesai, Anda dapat melihat node baru di Workspace Directories.

Buat node untuk alur kerja yang dipicu secara manual

Jika tugas Anda tidak memerlukan penjadwalan berulang tetapi perlu dipublikasikan ke lingkungan produksi untuk eksekusi manual, Anda dapat membuat node internal dalam alur kerja yang dipicu secara manual.

  1. Buka halaman Workspaces di Konsol DataWorks. Di bilah navigasi atas, pilih Wilayah yang diinginkan. Temukan ruang kerja yang diinginkan dan pilih Shortcuts > Data Studio di kolom Actions.

  2. Di panel navigasi kiri, klik image untuk membuka halaman Manually Triggered Workflow.

    1. Buat alur kerja yang dipicu secara manual.

    2. Di bilah alat di bagian atas halaman editor alur kerja yang dipicu secara manual, klik Create Internal Node. Pilih jenis node untuk tugas Anda.

    3. Atur nama node dan simpan.

Buat node tugas satu kali

  1. Buka halaman Workspaces di Konsol DataWorks. Di bilah navigasi atas, pilih Wilayah yang diinginkan. Temukan ruang kerja yang diinginkan dan pilih Shortcuts > Data Studio di kolom Actions.

  2. Di panel navigasi kiri, klik image untuk membuka halaman One-time Task.

  3. Di bagian Manually Triggered Tasks, klik image di sebelah kanan Manually Triggered Tasks, pilih Create Node, lalu pilih jenis node yang diperlukan.

    Catatan

    Tugas satu kali hanya mendukung pembuatan node Batch Synchronization, Notebook, MaxCompute SQL, MaxCompute Script, PyODPS 2, MaxCompute MR, Hologres SQL, Python, dan Shell.

  4. Atur nama node, simpan, lalu buka halaman editor node.

Edit node secara batch

Saat alur kerja berisi banyak node, membuka dan mengeditnya satu per satu tidak efisien. DataWorks menyediakan fitur Inner Node List yang memungkinkan Anda melihat pratinjau, mencari, dan mengedit semua node dalam daftar di sisi kanan kanvas dengan cepat.

Cara menggunakan

  1. Di bilah alat di bagian atas kanvas alur kerja, klik tombol Show Internal Node List untuk membuka panel di sisi kanan.

    image

  2. Setelah panel terbuka, panel tersebut menampilkan semua node dalam alur kerja saat ini sebagai daftar.

    • Pratinjau kode dan pengurutan:

      • Untuk node yang mendukung pengeditan kode, seperti MaxCompute SQL, editor kode diperluas secara default.

      • Untuk node yang tidak mendukung pengeditan kode, seperti node beban nol, kartu ditampilkan. Node ini secara otomatis ditempatkan di bagian bawah daftar.

    • Pencarian dan lokasi cepat:

      • Search: Di kotak pencarian di bagian atas, Anda dapat memasukkan kata kunci untuk melakukan pencarian fuzzy berdasarkan nama node.

      • Synchronized focus: Kanvas dan sidebar disinkronkan. Saat Anda memilih node di kanvas, node yang sesuai disorot di sidebar. Demikian pula, saat Anda mengklik node di sidebar, kanvas secara otomatis memfokuskan node tersebut.

    • Pengeditan online:

      • Operations: Di pojok kanan atas setiap kartu node tersedia pintasan seperti Load Latest Code, Open Node, dan Edit.

      • Auto-save: Setelah Anda memasuki mode edit, perubahan Anda disimpan secara otomatis ketika fokus mouse meninggalkan area blok kode.

      • Conflict detection: Jika pengguna lain memperbarui kode saat Anda sedang mengeditnya, notifikasi kegagalan muncul saat Anda menyimpan. Hal ini mencegah perubahan Anda tertimpa secara tidak sengaja.

    • Focus mode:

      • Pilih node dan klik image di pojok kanan atas jendela mengambang untuk mengaktifkan Focus Mode. Sidebar kemudian hanya menampilkan node yang dipilih, memberikan lebih banyak ruang untuk pengeditan kode.

Manajemen versi

Anda dapat menggunakan fitur manajemen versi untuk memulihkan node ke versi historis tertentu. Fitur ini juga menyediakan alat untuk melihat dan membandingkan versi, yang membantu Anda menganalisis perbedaan dan melakukan penyesuaian.

  1. Di Workspace Directories di panel navigasi kiri, klik dua kali nama node target untuk membuka halaman editor node.

  2. Di sisi kanan halaman editor node, klik Version. Di halaman Version, Anda dapat melihat dan mengelola Development History dan Deployment History.

    • View sebuah versi:

      1. Di tab Development History atau Deployment History, temukan versi node yang ingin Anda lihat.

      2. Klik View di kolom Actions untuk membuka halaman detail. Di halaman ini, Anda dapat melihat kode node dan informasi Scheduling.

        Catatan

        Anda dapat melihat informasi Scheduling dalam mode Code Editor atau visualization. Anda dapat mengganti mode tampilan di pojok kanan atas tab Scheduling.

    • Compare versi:

      Anda dapat membandingkan versi berbeda dari node di tab Development History atau Deployment History.

      • Bandingkan versi di lingkungan pengembangan atau deployment: Di tab Development History, pilih dua versi dan klik Select Versions to Compare di bagian atas. Anda kemudian dapat membandingkan kode node dan konfigurasi penjadwalan dari versi yang berbeda.

      • Bandingkan versi antara lingkungan pengembangan dan deployment atau build:

        1. Di tab Development History, temukan versi node.

        2. Klik Compare di kolom Actions. Di halaman detail, Anda dapat memilih versi dari Deployment History atau Build History untuk dibandingkan.

    • Restore ke versi:

      Anda hanya dapat memulihkan node ke versi historis tertentu dari tab Development History. Di tab Development History, temukan versi target dan klik Restore di kolom Actions. Kode node dan informasi Scheduling kemudian dipulihkan ke versi yang dipilih.

Referensi

FAQ

Apakah saya dapat mengunduh kode node, seperti SQL atau Python, ke mesin lokal?

  • Jawaban: Fitur unduh langsung tidak tersedia. Sebagai solusi alternatif, Anda dapat menyalin kode ke mesin lokal selama pengembangan. Atau, di DataStudio versi baru, Anda dapat menambahkan file lokal di folder pribadi Anda untuk pengembangan. Setelah pengembangan selesai, Anda dapat mengirimkan kode ke direktori ruang kerja. Dalam hal ini, kode Anda disimpan secara lokal.