All Products
Search
Document Center

AnalyticDB:Editor Spark

Last Updated:Mar 29, 2026

Editor Spark adalah lingkungan pengembangan berbasis browser di Konsol AnalyticDB for MySQL yang memungkinkan Anda membuat, mengonfigurasi, dan menjalankan aplikasi Spark untuk pemrosesan batch, streaming, serta kueri SQL. Dari antarmuka yang sama, Anda dapat melihat log driver, detail pengiriman, dan log eksekusi SQL.

Prasyarat

Sebelum memulai, pastikan Anda telah memiliki:

  • Kluster AnalyticDB for MySQL edisi Data LakehouseData Lakehouse Edition

  • Kelompok sumber daya job yang telah dibuat untuk kluster tersebut. Lihat Data Lakehouse EditionBuat kelompok sumber daya

  • Izin yang diperlukan telah diberikan kepada Pengguna Resource Access Management (RAM) Anda. Lihat bagian "Berikan izin kepada pengguna RAM" dalam Kelola pengguna dan izin RAM

  • Akun database untuk kluster tersebut:

  • AnalyticDB for MySQL telah diberi otorisasi untuk mengasumsikan role AliyunADBSparkProcessingDataRole. Lihat Lakukan otorisasi

  • Jalur penyimpanan log yang telah dikonfigurasi untuk aplikasi Spark

Untuk mengonfigurasi jalur penyimpanan log: Masuk ke Konsol AnalyticDB for MySQL. Temukan kluster tersebut dan klik ID klusternya. Di panel navigasi sebelah kiri, pilih Job Development > Spark JAR Development, lalu klik Log Settings. Pilih jalur default atau masukkan jalur kustom. Jalur kustom tidak boleh merupakan direktori root OSS—harus mencakup setidaknya satu level folder.

Buat dan jalankan aplikasi Spark

  1. Masuk ke Konsol AnalyticDB for MySQL. Di pojok kiri atas, pilih wilayah. Di panel navigasi sebelah kiri, klik ClustersData Lakehouse Edition. Pada tab Data Lakehouse Edition, temukan kluster tersebut dan klik ID klusternya.

  2. Di panel navigasi sebelah kiri, pilih Job Development > Spark JAR Development.

  3. Pada halaman Spark JAR Development, klik ikon 1 di sebelah kanan Applications.

  4. Pada panel Create Application, konfigurasikan parameter berikut.

    ParameterDeskripsi
    NameNama aplikasi atau direktori. Nama file tidak peka huruf besar/kecil.
    TypeApplication: membuat templat Spark berbasis file. Directory: membuat folder untuk mengelompokkan aplikasi.
    Parent LevelDirektori induk untuk file atau folder tersebut.
    Job TypeJenis job Spark: Batch untuk pemrosesan batch, Streaming untuk aplikasi streaming, atau SQL Engine untuk beban kerja mesin SQL terdistribusi Spark.
  5. Klik OK.

  6. Di editor Spark, konfigurasikan aplikasi tersebut. Lihat Ikhtisar untuk detail konfigurasi.

  7. Sebelum menjalankan aplikasi, pilih kelompok sumber daya job dan jenis aplikasi di editor. Lalu pilih salah satu tindakan berikut:

    • Klik Save untuk menyimpan aplikasi guna digunakan nanti.

    • Klik Run Now untuk menjalankan aplikasi segera. Statusnya akan diperbarui secara real time pada tab Applications.

    Catatan

    Secara default, tidak ada upaya ulang setelah kegagalan. Untuk mengonfigurasi perilaku upaya ulang, atur parameter spark.adb.maxAttempts dan spark.adb.attemptFailuresValidityInterval sebelum menjalankan. Lihat Parameter konfigurasi aplikasi Spark untuk detail selengkapnya.

Monitor aplikasi Spark

Pada tab Applications, cari aplikasi berdasarkan ID aplikasi. Gunakan tindakan berikut di kolom Actions sesuai kebutuhan investigasi Anda.

ActionYang ditampilkan
LogsLog driver untuk aplikasi saat ini, atau log eksekusi pernyataan SQL — berguna untuk mendiagnosis kesalahan waktu proses.
UIUI Spark untuk analisis performa dan diagnostik tingkat tugas. Akses memiliki periode validitas; jika sudah kedaluwarsa, buka kembali UI tersebut.
DetailsDetail pengiriman termasuk jalur log, URL web UI, ID kluster, dan nama kelompok sumber daya — berguna untuk memverifikasi cara aplikasi dikirim.
More > StopMenghentikan aplikasi yang sedang berjalan.
More > HistoryRiwayat upaya ulang untuk aplikasi saat ini.

Untuk melihat riwayat upaya ulang semua aplikasi, klik tab Execution History.