全部产品
Search
文档中心

Data Transmission Service:Buat kelompok konsumen

更新时间:Jul 02, 2025

Anda dapat membuat beberapa kelompok konsumen saat menggunakan fitur pelacakan perubahan. Konsumen dalam kelompok yang berbeda dapat melacak perubahan data dari sumber data yang sama, membantu mengurangi biaya pelacakan.

Prasyarat

Instansi pelacakan perubahan telah dibuat dan statusnya adalah Normal. Untuk informasi lebih lanjut, lihat Ikhtisar Skenario Pelacakan Perubahan.

Catatan penggunaan

  • Jika ukuran satu baris data yang dilacak melebihi 16 MB, kesalahan kehabisan memori (OOM) mungkin terjadi pada klien pelacakan perubahan.

  • Anda dapat membuat maksimal 20 kelompok konsumen dalam instansi pelacakan perubahan untuk mencapai konsumsi data berulang.

  • Hanya satu konsumen yang dapat dibuat di setiap kelompok konsumen.

  • DTS membaca data tambahan menggunakan modul DStore atau klien. Jika Anda beralih modul atau klien, duplikasi data mungkin terjadi.

Prosedur

  1. Gunakan salah satu metode berikut untuk masuk ke halaman Tugas Pelacakan Perubahan dan pilih wilayah tempat instansi pelacakan perubahan berada:

    Konsol DTS

    1. Masuk ke Konsol DTS.

    2. Di panel navigasi kiri, klik Pelacakan Perubahan.

    3. Di pojok kiri atas halaman, pilih wilayah tempat instansi pelacakan perubahan berada.

    Konsol DMS

    Catatan

    Operasi aktual mungkin berbeda berdasarkan mode dan tata letak Konsol DMS. Untuk informasi lebih lanjut, lihat Mode Sederhana dan Sesuaikan Tata Letak dan Gaya Konsol DMS.

    1. Masuk ke Konsol DMS.

    2. Di bilah navigasi atas, gerakkan penunjuk ke Data + AI > DTS (DTS) > Change Tracking.

    3. Dari daftar drop-down di sebelah kanan Change Tracking Tasks, pilih wilayah tempat instance change tracking berada.

  2. Temukan instansi pelacakan perubahan untuk mana Anda ingin membuat grup konsumen dan klik ID instansi.

  3. Di panel navigasi kiri, klik Consume Data.

  4. Di halaman Consume Data, klik Add Consumer Group di pojok kiri atas.

  5. Di kotak dialog Add Consumer Group, atur parameter untuk grup konsumen.

    Parameter

    Deskripsi

    Consumer Group Name

    Masukkan nama baru untuk grup konsumen. Kami menyarankan Anda menggunakan nama deskriptif yang memudahkan identifikasi grup konsumen.

    Account

    Masukkan nama pengguna grup konsumen.

    • Nama pengguna dapat berisi huruf besar, huruf kecil, angka, dan garis bawah (_).

    • Nama pengguna harus memiliki panjang 1 hingga 16 karakter.

    Password

    Masukkan kata sandi yang sesuai dengan nama pengguna grup konsumen.

    • Kata sandi harus berisi setidaknya dua dari jenis karakter berikut: huruf besar, huruf kecil, angka, dan karakter khusus.

    • Kata sandi harus memiliki panjang 8 hingga 32 karakter.

    Confirm Password

    Masukkan kata sandi sekali lagi.

  6. Klik OK.

Apa yang harus dilakukan selanjutnya

Setelah membuat grup konsumen, pilih salah satu metode berikut berdasarkan tipe database sumber dan tipe klien untuk mengonsumsi data yang dilacak:

Mode Konsumsi

Tipe Database yang Berlaku

Deskripsi

Gunakan Demo SDK untuk Mengonsumsi Data yang Dilacak dari Instance PolarDB-X 1.0

PolarDB-X 1.0, DMS LogicDB

Mode ini cocok untuk tugas pelacakan perubahan yang menjalankan database PolarDB-X 1.0 atau DMS LogicDB.

Catatan

Tugas pelacakan perubahan yang menjalankan database PolarDB-X 1.0 atau DMS LogicDB hanya mendukung mode konsumsi.

Gunakan Demo SDK untuk Mengonsumsi Data yang Dilacak

MySQL, PolarDB for MySQL, PostgreSQL, Oracle, PolarDB (Compatible with Oracle), PolarDB for PostgreSQL, PolarDB-X 2.0

Mode ini cocok untuk sebagian besar skenario.

Catatan

Kami merekomendasikan agar Anda menggunakan mode konsumsi ini untuk tugas pelacakan perubahan yang menjalankan database yang sesuai.

Gunakan flink-dts-connector untuk Mengonsumsi Data yang Dilacak

Mode ini cocok untuk skenario yang mengonsumsi data yang dilacak dengan menggunakan Apache Flink. Apache Flink adalah kerangka kerja dan mesin pemrosesan terdistribusi.

Gunakan Klien Kafka untuk Mengonsumsi Data yang Dilacak

Mode ini cocok untuk skenario yang mengonsumsi data yang dilacak dengan menggunakan klien Kafka dan dapat mengembangkan kode sumber.