全部产品
Search
文档中心

DataWorks:Buat Node CDH Spark

更新时间:Jul 06, 2025

Spark adalah mesin analitik data besar serbaguna yang menawarkan performa tinggi, kemudahan penggunaan, dan banyak digunakan. Anda dapat menggunakan Spark untuk melakukan analisis memori kompleks serta membangun aplikasi analitik data besar dengan latensi rendah. DataWorks menyediakan node Cloudera's Distribution Including Apache Hadoop (CDH) Spark yang memungkinkan Anda mengembangkan dan menjadwalkan tugas Spark secara berkala di DataWorks. Topik ini menjelaskan cara membuat dan menggunakan node CDH Spark.

Prasyarat

  • Sebuah alur kerja telah dibuat di DataStudio.

    Operasi pengembangan di berbagai jenis mesin komputasi dilakukan berdasarkan alur kerja di DataStudio. Oleh karena itu, sebelum membuat sebuah node, Anda harus membuat alur kerja terlebih dahulu. Untuk informasi lebih lanjut, lihat Buat alur kerja.

  • Cluster CDH Alibaba Cloud telah dibuat dan didaftarkan ke DataWorks.

    Sebelum membuat node CDH dan menggunakan node CDH untuk mengembangkan tugas CDH di DataWorks, Anda harus mendaftarkan cluster CDH ke ruang kerja DataWorks. Untuk informasi lebih lanjut, lihat Daftarkan cluster CDH atau CDP ke DataWorks.

  • (Diperlukan jika Anda menggunakan pengguna RAM untuk mengembangkan tugas) Pengguna RAM telah ditambahkan ke ruang kerja DataWorks sebagai anggota dan diberi peran Development atau Workspace Administrator. Peran Workspace Administrator memiliki lebih banyak izin daripada yang diperlukan. Berhati-hatilah saat memberikan peran tersebut. Untuk informasi lebih lanjut tentang cara menambahkan anggota, lihat Tambah anggota ruang kerja dan tetapkan peran kepada mereka.

  • Grup sumber daya tanpa server telah dibeli dan dikonfigurasi, termasuk asosiasi dengan ruang kerja dan konfigurasi jaringan. Untuk informasi lebih lanjut, lihat Buat dan gunakan grup sumber daya tanpa server.

Batasan

Tugas pada jenis node ini dapat dijalankan pada grup sumber daya tanpa server atau grup sumber daya eksklusif versi lama untuk penjadwalan. Kami merekomendasikan agar Anda menjalankan tugas pada grup sumber daya tanpa server.

Persiapan: Siapkan kode tugas Spark dan dapatkan paket JAR

Sebelum menggunakan DataWorks untuk menjadwalkan tugas CDH Spark, Anda harus menyiapkan kode tugas Spark di CDH dan mengkompilasi kode tersebut untuk menghasilkan paket JAR. Untuk informasi lebih lanjut tentang persiapan kode tugas Spark, lihat Ikhtisar.

Catatan

Anda harus mengunggah paket JAR yang diperoleh ke konsol DataWorks agar DataWorks dapat menjadwalkan tugas CDH Spark secara berkala.

Langkah 1: Buat Node CDH Spark

  1. Pergi ke halaman DataStudio.

    Masuk ke Konsol DataWorks. Di bilah navigasi atas, pilih wilayah yang diinginkan. Di panel navigasi di sebelah kiri, pilih Data Development and O&M > Data Development. Pada halaman yang muncul, pilih ruang kerja yang diinginkan dari daftar drop-down dan klik Go to Data Development.

  2. Di halaman DataStudio, temukan alur kerja yang diinginkan, klik kanan nama alur kerja, dan pilih Create Node > CDH > CDH Spark.

  3. Di kotak dialog Create Node, konfigurasikan parameter Engine Instance, Path, dan Name.

  4. Klik Confirm. Selanjutnya, Anda dapat menggunakan node yang telah dibuat untuk mengembangkan dan mengonfigurasi tugas.

Langkah 2: Buat dan referensikan sumber daya JAR CDH

Anda dapat merujuk sumber daya paket JAR dalam node CDH Spark yang dibuat, menulis kode untuk node tersebut, dan kemudian menggunakan perintah spark-submit untuk mengirim tugas di node tersebut. Lakukan operasi berikut untuk membuat dan merujuk sumber daya JAR CDH:

  1. Buat sumber daya JAR CDH.

    Temukan alur kerja yang diinginkan dan klik CDH. Klik kanan Resource dan pilih Create Resource > CDH JAR. Di kotak dialog Create Resource, klik Upload untuk mengunggah file yang diperlukan.

    image.png

  2. Rujuk sumber daya JAR CDH.

    1. Pergi ke tab konfigurasi node yang dibuat.

    2. Temukan sumber daya yang ingin dirujuk di bawah Resource di folder CDH, klik kanan nama sumber daya, dan pilih Insert Resource Path. Dalam contoh ini, sumber daya bernama spark-examples_2.11_2.4.0.jar digunakan.

      image.png

      Jika klausa dalam format ##@resource_reference{""} muncul di tab konfigurasi node, sumber daya berhasil dirujuk. Contoh kode:

      ##@resource_reference{"spark_examples_2.11_2.4.0.jar"}
      spark_examples_2.11_2.4.0.jar
    3. Ubah kode node CDH Spark dan tambahkan perintah spark-submit. Kode berikut menunjukkan contohnya.

      Penting

      Jangan tambahkan komentar saat menulis kode untuk node CDH Spark. Jika Anda menambahkan komentar, kesalahan akan dilaporkan saat Anda menjalankan tugas di node CDH Spark. Anda harus merujuk ke contoh kode berikut untuk mengedit kode node CDH Spark.

      ##@resource_reference{"spark-examples_2.11-2.4.0.jar"}
      spark-submit --class org.apache.spark.examples.SparkPi --master yarn  spark-examples_2.11-2.4.0.jar 100

      Deskripsi parameter:

      • org.apache.spark.examples.SparkPi: kelas utama tugas dalam paket JAR yang dikompilasi.

      • spark-examples_2.11-2.4.0.jar: nama paket JAR yang Anda unggah.

Langkah 3: Konfigurasikan properti penjadwalan tugas

Jika Anda ingin sistem secara berkala menjalankan tugas di node tersebut, Anda dapat mengklik Properties di panel navigasi di sebelah kanan pada tab konfigurasi node untuk mengonfigurasi properti penjadwalan tugas berdasarkan kebutuhan bisnis Anda.

Langkah 4: Debug kode tugas

  1. Opsional. Pilih grup sumber daya dan tetapkan parameter kustom ke variabel.

  2. Simpan dan eksekusi pernyataan SQL.

    Di bilah alat atas, klik ikon 保存 untuk menyimpan pernyataan SQL. Lalu, klik ikon 运行 untuk mengeksekusi pernyataan SQL.

  3. Opsional. Lakukan pengujian asap.

    Anda dapat melakukan pengujian asap pada tugas di lingkungan pengembangan saat Anda mengirimkan tugas atau setelah Anda mengirimkan tugas. Untuk informasi lebih lanjut, lihat Lakukan pengujian asap.

Apa yang Harus Dilakukan Selanjutnya

  1. Kirim dan terapkan tugas.

    1. Klik ikon Simpan di bilah alat untuk menyimpan tugas.

    2. Klik ikon Kirim di bilah alat atas untuk mengirimkan tugas.

    3. Di kotak dialog Submit, konfigurasikan parameter Change description.

    4. Klik Confirm.

    Jika Anda menggunakan ruang kerja dalam mode standar, Anda harus menerapkan tugas di lingkungan produksi setelah Anda mengirimkan tugas. Untuk menerapkan tugas pada node, klik Deploy di bilah navigasi atas halaman DataStudio. Untuk informasi lebih lanjut, lihat Terapkan tugas.

  2. Lihat tugas.

    1. Klik Operation Center di sudut kanan atas tab konfigurasi node yang sesuai untuk pergi ke Pusat Operasi di lingkungan produksi.

    2. Lihat tugas yang dijadwalkan. Untuk informasi lebih lanjut, lihat Lihat dan kelola tugas pemicu otomatis.

    Untuk melihat lebih banyak informasi tentang tugas, klik Operation Center di bilah navigasi atas halaman DataStudio. Untuk informasi lebih lanjut, lihat Ikhtisar.

Skenario

DataWorks menyediakan fitur penjadwalan dan pemantauan tugas yang komprehensif untuk memastikan bahwa tugas Spark Anda dapat berhasil dikirimkan ke kluster CDH untuk dijalankan. Ini menyederhanakan proses O&M tugas dan memastikan manajemen sumber daya yang efisien. Informasi berikut menunjukkan skenario penggunaan spesifik tugas Spark:

  • Analisis data: Gunakan Spark SQL, Dataset, dan DataFrame API untuk mengumpulkan, memfilter, dan mentransformasi data kompleks serta mendapatkan wawasan cepat tentang data.

  • Pemrosesan aliran: Gunakan Spark Streaming untuk memproses aliran data real-time dan melakukan analisis serta pengambilan keputusan instan.

  • Pembelajaran mesin: Gunakan Spark MLlib untuk memproses data, mengekstraksi fitur, serta melakukan pelatihan model dan evaluasi.

  • Ekstraksi, transformasi, dan pemuatan (ETL) data besar: Lakukan operasi ETL pada dataset besar untuk menyiapkan data bagi gudang data atau sistem penyimpanan lainnya.