All Products
Search
Document Center

Quick Audience:Tugas Penjadwalan

Last Updated:Jun 29, 2025

Setelah mengonfigurasi pemetaan untuk tabel yang diimpor, Anda perlu mengeksekusi tugas penjadwalan berdasarkan sumber komputasi dan melakukan perhitungan ID Mapping secara bersamaan. Setelah penjadwalan selesai, hasil perhitungan akan disimpan dalam sumber analisis.

Berikut adalah tiga metode untuk memulai penjadwalan:

  • Penjadwalan Manual: Penjadwalan dimulai secara manual setelah tabel dasar diperbarui.

  • Penjadwalan Berkala: Penjadwalan dimulai secara otomatis setiap hari atau setiap jam. Metode ini digunakan ketika tabel dasar diperbarui secara berkala.

  • Penjadwalan Terpicu: Anda dapat memanggil Operasi API untuk mengirim permintaan penjadwalan guna memulai penjadwalan. Metode ini digunakan untuk memicu penjadwalan melalui Operasi API setelah tugas pemrosesan tabel dasar selesai.

Catatan

Jenis tugas penjadwalan yang diimpor menggunakan API dibuat oleh Sinkronisasi API. Metode penjadwalannya adalah penjadwalan berkala atau penjadwalan manual. Anda dapat melihat catatan eksekusi, tetapi tidak dapat mengedit atau menghapusnya. Penjadwalan manual untuk catatan eksekusi juga tidak didukung.

Buat pekerjaan

Catatan

Setiap kali tugas dijadwalkan, ID pengguna dari semua tabel data harus dihitung ulang. Untuk menghindari konsumsi sumber daya komputasi yang berlebihan, disarankan untuk membuat tugas yang sama untuk menjadwalkan seluruh tabel data.

Buat tugas penjadwalan manual

Prosedur:

  1. Di panel navigasi kiri, pilih Manajemen Konfigurasi > Impor Data > Impor Data > Tugas Penjadwalan. image

  2. Di sudut kanan atas, klik Buat Tugas Penjadwalan.

  3. Di kotak dialog yang muncul, masukkan nama tugas dan pilih tabel data yang akan dijadwalkan dan diimpor. Anda dapat memilih beberapa atau semua tabel data. 11111

  4. Atur parameter Frekuensi Penjadwalan ke Penjadwalan Manual.

  5. Klik Simpan.

Tugas penjadwalan akan ditambahkan ke daftar tugas. Untuk menjalankan penjadwalan secara manual, klik ikon 3.

Buat tugas penjadwalan berkala

Prosedur:

  1. Di panel navigasi kiri, pilih Manajemen Konfigurasi > Impor Data > Impor Data > Tugas Penjadwalan. image

  2. Di sudut kanan atas, klik Buat Tugas Penjadwalan.

  3. Di kotak dialog yang muncul, masukkan nama tugas dan pilih tabel data yang akan dijadwalkan dan diimpor. Anda dapat memilih beberapa atau semua tabel data. 2222

  4. Atur Frekuensi Penjadwalan ke Penjadwalan Harian atau Penjadwalan Per Jam, serta atur siklus eksekusinya.

  5. Klik Simpan.

Tugas penjadwalan akan ditambahkan ke daftar tugas dan dijalankan secara otomatis pada waktu periodik yang telah ditentukan.

Buat tugas penjadwalan terpicu

Prosedur:

  1. Pilih Workspace > Manajemen Konfigurasi > Impor Data > Impor Data > Tugas Penjadwalan. image

  2. Di sudut kanan atas, klik Buat Tugas Penjadwalan.

  3. Di kotak dialog yang muncul, masukkan nama tugas dan pilih tabel data yang akan dijadwalkan dan diimpor. Anda dapat memilih beberapa atau semua tabel data. 33333

  4. Atur parameter Frekuensi Penjadwalan ke Penjadwalan Terpicu. URL yang berisi token akan dihasilkan untuk setiap tabel. Klik Salin untuk menyimpan URL tersebut.

  5. Klik Simpan.

Tugas penjadwalan akan ditambahkan ke daftar tugas. Ketika perlu menjalankan penjadwalan, Anda dapat menggunakan URL ini untuk memulainya. Aturan spesifik adalah sebagai berikut:

  • Ketika menggunakan Dataphin, DataWorks, atau alat ETL lainnya untuk memproses tabel dasar, Anda dapat menulis kode atau memanggil operasi ini menggunakan webhook.

    Untuk informasi lebih lanjut tentang skrip contoh untuk Dataphin dan DataWorks, lihat Lampiran: Skrip Contoh untuk Memicu Penjadwalan.

  • Jika beberapa tabel berada dalam tugas penjadwalan yang sama, setiap tabel perlu dijadwalkan sekali melalui permintaan URL yang sesuai. Tugas penjadwalan hanya akan dieksekusi jika semua tabel dipicu.

    Di daftar tugas, klik Edit untuk melihat status pemicuan setiap tabel. Tabel yang telah dijadwalkan menggunakan URL akan ditampilkan sebagai "Dipicu". Jika beberapa tabel ditampilkan sebagai "Tidak Dipicu", Anda perlu memicunya melalui URL yang sesuai. Penjadwalan akan mulai dieksekusi ketika semua tabel ditampilkan sebagai "Dipicu".

  • Selama proses penjadwalan suatu tugas, permintaan penjadwalan tambahan yang diterima akan diabaikan.

Modifikasi tugas penjadwalan

Klik Edit untuk memodifikasi tugas penjadwalan. Mulai penjadwalan berikutnya, penjadwalan akan dieksekusi berdasarkan pengaturan yang telah diedit.

Penjadwalan manual

Selain penjadwalan otomatis, Anda juga dapat memulai penjadwalan secara manual untuk penjadwalan berkala dan terpicu.

Klik Penjadwalan Manual untuk memulai penjadwalan secara manual.

Lihat hasil

Setelah tugas terjadwal dieksekusi minimal sekali, daftar akan menampilkan status eksekusi terakhir (eksekusi berhasil / gagal).

Catatan

Jika eksekusi gagal, gerakkan pointer ke Eksekusi Gagal. Penyebab kegagalan akan ditampilkan di halaman untuk membantu Anda menyelesaikan masalah.

image

Klik Catatan Eksekusi untuk melihat catatan eksekusi dan status setiap eksekusi tugas, seperti yang ditunjukkan pada gambar berikut.

Klik ikon 0untuk menampilkan status eksekusi semua tabel yang termasuk dalam jadwal eksekusi. image

Hapus tugas penjadwalan

Pilih image /> Hapus. Setelah mengonfirmasi penghapusan, tugas penjadwalan akan dihapus, tetapi data yang diperoleh oleh tugas tersebut tetap dipertahankan.

Lampiran: Skrip contoh untuk memicu penjadwalan

Skrip contoh berikut digunakan untuk memicu tugas penjadwalan impor di Dataphin dan DataWorks.

Dataphin

Di Dataphin, lakukan langkah-langkah berikut untuk memicu tugas penjadwalan impor menggunakan tugas Shell periodik:

  1. Tambahkan daftar putih sandbox dan masukkan semua URL yang dihasilkan saat Anda Membuat Tugas Penjadwalan Terpicu sebagai alamat IP yang ingin Anda akses. Untuk informasi lebih lanjut, lihat Dataphin Menambahkan Daftar Izin Sandbox.

  2. Buat tugas shell. Untuk informasi lebih lanjut, lihat Buat Tugas Shell. Pilih Tugas Periodik sebagai jenis penjadwalan.

    Jika tugas penjadwalan yang sama berisi beberapa tabel, beberapa URL pemicu akan dihasilkan, dan beberapa tugas Shell periodik harus dibuat sesuai.

    Contoh skrip Shell adalah sebagai berikut:

    #!/bin/bash
    # {URL Pemicu} Ganti dengan URL pemicu.
    QA_TRIGGER_URL="{URL Pemicu}"
    echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Memulai Penjadwalan Pemicu."
    echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience URL Penjadwalan Pemicu:" $QA_TRIGGER_URL
    result=$(curl -k -s ${QA_TRIGGER_URL})
    if [ !  -n "$result" ]; then  
      echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Pemicu Gagal"  $result
    else  
      echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Respon Penjadwalan Pemicu:" $result
      echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Mengakhiri Penjadwalan Pemicu."
    fi
  3. Opsional. Anda dapat mengklik Jalankan Tugas Shell untuk menguji apakah tugas penjadwalan impor dapat dipicu dan memeriksa apakah log keluaran berisi informasi sukses berikut:

    Respon Penjadwalan Pemicu QuickAudience: {"data":"true","errorCode":null,"errorDesc":null,"exStack":null,"opers":[],"solution":null,"success":true,"traceId":"0bc1409e16667784903588235e2ef1"}
  4. Konfigurasikan penjadwalan untuk tugas Shell. Untuk informasi lebih lanjut, lihat Konfigurasi Penjadwalan.

    Klik Buat Ketergantungan Hulu untuk mengaitkan ketergantungan hulu yang digunakan untuk menghasilkan data di tabel saat ini. Ketika ketergantungan hulu telah menghasilkan data dan waktu penjadwalan yang dikonfigurasi tercapai, penjadwalan tugas Shell dipicu.

    Jika semua tugas Shell yang sesuai dengan URL tugas penjadwalan impor dipicu, tugas penjadwalan impor dipicu.

DataWorks

DataWorks memungkinkan Anda memicu tugas penjadwalan impor pada node Shell atau pada node PyODPS 3.

Membuat Node Shell

Untuk memicu tugas penjadwalan impor menggunakan node Shell di DataWorks, lakukan langkah-langkah berikut:

  1. Node Shell perlu menggunakan sumber daya eksklusif untuk grup penjadwalan agar dapat dijadwalkan. Untuk informasi lebih lanjut, lihat Sumber Daya Eksklusif untuk Grup Penjadwalan.

    Jika tidak, node Shell gagal dijadwalkan dan pesan kesalahan berikut akan ditampilkan:

    curl: (1) Protokol https tidak didukung atau dinonaktifkan di libcurl
  2. Buat node Shell. Untuk informasi lebih lanjut, lihat Buat Node Shell.

    Jika tugas penjadwalan yang sama berisi beberapa tabel, beberapa URL pemicu akan dihasilkan dan beberapa node Shell harus dibuat sesuai.

    Contoh skrip Shell adalah sebagai berikut:

    #!/bin/bash
    # {URL Pemicu} Ganti dengan URL pemicu.
    QA_TRIGGER_URL="{URL Pemicu}"
    echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Memulai Penjadwalan Pemicu."
    echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience URL Penjadwalan Pemicu:" $QA_TRIGGER_URL
    result=$(curl -k -s ${QA_TRIGGER_URL})
    if [ !  -n "$result" ]; then  
      echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Pemicu Gagal"  $result
    else  
      echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Respon Penjadwalan Pemicu:" $result
      echo $(date "+%Y-%m-%d %H:%M:%S") "QuickAudience Mengakhiri Penjadwalan Pemicu."
    fi   
  3. Opsional. Anda dapat mengklik Jalankan Shell untuk menguji apakah tugas penjadwalan impor dipicu dan memeriksa apakah log keluaran berisi informasi sukses berikut:

    Respon Penjadwalan Pemicu QuickAudience: {"data":"true","errorCode":null,"errorDesc":null,"exStack":null,"opers":[],"solution":null,"success":true,"traceId":"0bc1409e16667784903588235e2ef1"}
  4. Konfigurasikan penjadwalan untuk node Shell. Untuk informasi lebih lanjut, lihat Konfigurasikan Dependensi Penjadwalan.

    Sebagaimana ditunjukkan pada gambar berikut, buat dependensi hulu dan kaitkan dengan node hulu yang menghasilkan data di tabel data saat ini. Ketika node hulu telah menghasilkan data dan waktu penjadwalan yang dikonfigurasi tercapai, node Shell dijadwalkan. image

    Jika semua node Shell yang sesuai dengan URL tugas penjadwalan impor dipicu, tugas penjadwalan impor dipicu.

Node PyODPS 3

Di DataWorks, gunakan node PyODPS 3 untuk memicu tugas penjadwalan impor. Prosedurnya adalah sebagai berikut:

  1. Node PyODPS 3 dapat dijadwalkan menggunakan grup sumber daya publik atau sumber daya eksklusif untuk grup penjadwalan.

  2. Buat node PyODPS 3. Untuk informasi lebih lanjut, lihat Node PyODPS 3.

    Jika tugas penjadwalan yang sama berisi beberapa tabel, beberapa URL pemicu akan dihasilkan dan beberapa node PyODPS 3 harus dibuat sesuai.

    Contoh skrip Python 3 adalah sebagai berikut:

    import requests
    from datetime import datetime
    
    # {Alamat yang memicu penjadwalan} Ganti dengan alamat yang memicu penjadwalan.
    QA_TRIGGER_URL = "{Alamat yang memicu penjadwalan}"
    print(datetime.now().strftime("%Y-%m-%d %H:%M:%S") + " QuickAudience Memulai Penjadwalan Pemicu.")
    print(datetime.now().strftime("%Y-%m-%d %H:%M:%S") + " QuickAudience URL Penjadwalan Pemicu:" + QA_TRIGGER_URL)
    response = requests.get(QA_TRIGGER_URL)
    print(datetime.now().strftime("%Y-%m-%d %H:%M:%S") + " QuickAudience Respon Penjadwalan Pemicu:" + response.text)
    print(datetime.now().strftime("%Y-%m-%d %H:%M:%S") + " QuickAudience Mengakhiri Penjadwalan Pemicu.")
  3. Opsional. Anda dapat mengklik Jalankan PyODPS 3 untuk menguji apakah tugas penjadwalan impor dipicu dan memeriksa apakah log keluaran berisi informasi sukses berikut:

    Respon Penjadwalan Pemicu QuickAudience: {"data":"true","errorCode":null,"errorDesc":null,"exStack":null,"opers":[],"solution":null,"success":true,"traceId":"0bc1409e16667784903588235e2ef1"}
  4. Konfigurasikan penjadwalan untuk node PyODPS 3. Untuk informasi lebih lanjut, lihat Konfigurasikan Dependensi Penjadwalan.

    Sebagaimana ditunjukkan pada gambar berikut, buat dependensi hulu dan kaitkan dengan node hulu yang menghasilkan data di tabel data saat ini. Ketika node hulu telah menghasilkan data dan mencapai waktu penjadwalan yang dikonfigurasi, penjadwalan node PyODPS 3 dipicu. image

    Jika semua node PyODPS 3 yang sesuai dengan URL tugas penjadwalan impor dipicu, tugas penjadwalan impor dipicu.