全部产品
Search
文档中心

ApsaraMQ for Kafka:Buat Konektor Sink Tablestore

更新时间:Jul 02, 2025

Topik ini menjelaskan cara membuat konektor sink Tablestore untuk menyinkronkan data dari topik pada instance ApsaraMQ for Kafka ke tabel pada instance Tablestore.

Prasyarat

  • ApsaraMQ for Kafka

    • Fitur konektor diaktifkan untuk instance ApsaraMQ for Kafka. Untuk informasi lebih lanjut, lihat Aktifkan fitur konektor.

    • Sebuah topik dibuat sebagai sumber data pada instance ApsaraMQ for Kafka. Untuk informasi lebih lanjut, lihat Langkah 1: Buat topik.

  • Tablestore

Catatan Penggunaan

  • Data hanya dapat diekspor dari topik pada instance ApsaraMQ for Kafka ke tabel pada instance Tablestore yang berada di wilayah yang sama dengan instance ApsaraMQ for Kafka. Untuk informasi tentang batasan pada konektor, lihat Batasan.

  • Saat membuat konektor sink Tablestore, diperlukan peran terhubung layanan.

    • Jika peran terhubung layanan belum dibuat, ApsaraMQ for Kafka secara otomatis membuat peran tersebut. Dengan cara ini, Anda dapat mengekspor data dari ApsaraMQ for Kafka ke Tablestore sesuai harapan.

    • Jika peran terhubung layanan telah dibuat, ApsaraMQ for Kafka tidak akan membuat peran tersebut lagi.

    Untuk informasi lebih lanjut, lihat Peran terhubung layanan.

Proses

Bagian ini menjelaskan cara menggunakan konektor sink Tablestore untuk mengekspor data dari topik pada instance ApsaraMQ for Kafka ke tabel pada instance Tablestore.

  1. (Opsional) Buat topik dan grup yang diperlukan oleh konektor sink Tablestore.

    Jika Anda tidak ingin membuat topik dan grup secara manual, lewati langkah ini dan atur parameter Metode Pembuatan Sumber Daya ke Otomatis pada langkah berikutnya.

    Penting

    Topik tertentu yang diperlukan oleh konektor sink Tablestore harus menggunakan penyimpanan lokal. Jika versi utama instance ApsaraMQ for Kafka Anda adalah 0.10.2, Anda tidak dapat membuat topik yang menggunakan penyimpanan lokal secara manual. Pada versi utama 0.10.2, topik-topik ini harus dibuat secara otomatis.

    1. Buat topik yang diperlukan oleh konektor sink Tablestore

    2. Buat grup yang diperlukan oleh konektor sink Tablestore

  2. Buat dan sebarkan konektor sink Tablestore

  3. Verifikasi hasil

    1. Kirim pesan uji

    2. Lihat data dalam tabel

Buat topik yang diperlukan oleh konektor sink Tablestore

Anda dapat membuat topik-topik berikut yang diperlukan oleh konektor sink Tablestore secara manual di konsol ApsaraMQ for Kafka: topik offset tugas, topik konfigurasi tugas, topik status tugas, topik antrian pesan gagal, dan topik data kesalahan. Jumlah partisi dan mesin penyimpanan yang diperlukan oleh masing-masing topik bervariasi. Untuk informasi lebih lanjut, lihat Parameter yang dikonfigurasi untuk layanan sumber.

  1. Masuk ke konsol ApsaraMQ for Kafka.

  2. Di bagian Resource Distribution halaman Overview, pilih wilayah tempat instance ApsaraMQ for Kafka yang ingin Anda kelola berada.

    Penting

    Anda harus membuat topik di wilayah tempat instance Elastic Compute Service (ECS) Anda diterapkan. Topik tidak dapat digunakan lintas wilayah. Sebagai contoh, jika produsen dan konsumen pesan berjalan pada instance ECS yang diterapkan di wilayah Tiongkok (Beijing), topik tersebut juga harus dibuat di wilayah Tiongkok (Beijing).

  3. Pada halaman Instances, klik nama instance yang ingin Anda kelola.

  4. Di panel navigasi sisi kiri, klik Topics.

  5. Pada halaman Topics, klik Create Topic.

  6. Di panel Create Topic, tentukan properti topik dan klik OK.

    Parameter

    Deskripsi

    Contoh

    Name

    Nama topik.

    demo

    Description

    Deskripsi topik.

    demo test

    Partitions

    Jumlah partisi dalam topik.

    12

    Storage Engine

    Catatan

    Anda dapat menentukan jenis mesin penyimpanan hanya jika Anda menggunakan instance Edisi Profesional non-serverless. Untuk jenis instance lainnya, Cloud Storage dipilih secara default.

    Jenis mesin penyimpanan yang digunakan untuk menyimpan pesan dalam topik.

    ApsaraMQ for Kafka mendukung jenis mesin penyimpanan berikut:

    • Cloud Storage: Jika Anda memilih nilai ini, sistem menggunakan disk Alibaba Cloud untuk topik dan menyimpan data dalam tiga replika dalam mode terdistribusi. Mesin penyimpanan ini memiliki latensi rendah, performa tinggi, daya tahan panjang, dan keandalan tinggi. Jika Anda mengatur parameter Instance Edition ke Standard (High Write) saat Anda membuat instance, Anda hanya dapat mengatur parameter ini ke Cloud Storage.

    • Local Storage: Jika Anda memilih nilai ini, sistem menggunakan algoritma in-sync replicas (ISR) dari Apache Kafka open source dan menyimpan data dalam tiga replika dalam mode terdistribusi.

    Cloud Storage

    Message Type

    Jenis pesan topik. Nilai valid:

    • Normal Message: Secara default, pesan dengan kunci yang sama disimpan dalam partisi yang sama sesuai urutan pengiriman pesan. Jika broker dalam kluster gagal, urutan pesan yang disimpan dalam partisi mungkin tidak dipertahankan. Jika Anda mengatur parameter Storage Engine ke Cloud Storage, parameter ini secara otomatis diatur ke Normal Message.

    • Partitionally Ordered Message: Secara default, pesan dengan kunci yang sama disimpan dalam partisi yang sama sesuai urutan pengiriman pesan. Jika broker dalam kluster gagal, pesan tetap disimpan dalam partisi sesuai urutan pengiriman pesan. Pesan dalam beberapa partisi tidak dapat dikirim sampai partisi dipulihkan. Jika Anda mengatur parameter Storage Engine ke Local Storage, parameter ini secara otomatis diatur ke Partitionally Ordered Message.

    Normal Message

    Log Cleanup Policy

    Kebijakan pembersihan log yang digunakan oleh topik.

    Jika Anda mengatur parameter Storage Engine ke Local Storage, Anda harus mengonfigurasi parameter Log Cleanup Policy. Anda dapat mengatur Parameter Mesin Penyimpanan ke Penyimpanan Lokal hanya jika Anda menggunakan instance Edisi Profesional ApsaraMQ for Kafka.

    ApsaraMQ for Kafka menyediakan kebijakan pembersihan log berikut:

    • Delete: kebijakan pembersihan log default. Jika ruang penyimpanan yang cukup tersedia dalam sistem, pesan disimpan berdasarkan periode retensi maksimum. Setelah penggunaan penyimpanan melebihi 85%, sistem menghapus pesan yang disimpan paling awal untuk memastikan ketersediaan layanan.

    • Compact: kebijakan pemadatan log yang digunakan dalam Apache Kafka. Pemadatan log memastikan bahwa nilai terbaru dipertahankan untuk pesan dengan kunci yang sama. Kebijakan ini cocok untuk skenario seperti memulihkan sistem yang gagal atau memuat ulang cache setelah sistem dimulai ulang. Sebagai contoh, saat Anda menggunakan Kafka Connect atau Confluent Schema Registry, Anda harus menyimpan informasi tentang status dan konfigurasi sistem dalam topik yang dipadatkan log.

      Penting

      Anda hanya dapat menggunakan topik yang dipadatkan log dalam komponen cloud-native tertentu, seperti Kafka Connect dan Confluent Schema Registry. Untuk informasi lebih lanjut, lihat aliware-kafka-demos.

    Compact

    Tag

    Tag yang ingin Anda lampirkan ke topik.

    demo

    Setelah topik dibuat, Anda dapat melihat topik tersebut di halaman Topics.

Buat grup yang diperlukan oleh konektor sink Tablestore

Anda dapat membuat grup yang diperlukan oleh konektor sink Tablestore secara manual di konsol ApsaraMQ for Kafka. Nama grup harus dalam format connect-Nama Tugas. Untuk informasi lebih lanjut, lihat Parameter yang dikonfigurasi untuk layanan sumber.

  1. Masuk ke konsol ApsaraMQ for Kafka.

  2. Di bagian Resource Distribution halaman Overview, pilih wilayah tempat instance ApsaraMQ for Kafka yang ingin Anda kelola berada.

  3. Pada halaman Instances, klik nama instance yang ingin Anda kelola.

  4. Di panel navigasi sisi kiri, klik Groups.

  5. Di halaman Groups, klik tombol Create Group.

  6. Di panel Create Group, masukkan nama grup di bidang Group ID dan deskripsi grup di bidang Description, lampirkan tag ke grup, lalu klik OK.

    Setelah Anda membuat grup konsumen, Anda dapat melihat grup konsumen tersebut di halaman Groups.

Buat dan sebarkan konektor sink Tablestore

Lakukan langkah-langkah berikut untuk membuat dan menyebarkan konektor sink Tablestore yang dapat Anda gunakan untuk mengekspor data dari ApsaraMQ for Kafka ke Tablestore.

  1. Masuk ke konsol ApsaraMQ for Kafka.

  2. Di bagian Resource Distribution halaman Overview, pilih wilayah tempat instance ApsaraMQ for Kafka yang ingin Anda kelola berada.

  3. Di panel navigasi sisi kiri, klik Connectors.

  4. Pada halaman Connectors, pilih instance tempat konektor tersebut berasal dari daftar drop-down Select Instance dan klik Create Connector.

  5. Di wizard Create Connector, lakukan langkah-langkah berikut:

    1. Di langkah Configure Basic Information, ikuti petunjuk di layar untuk mengonfigurasi parameter dan klik Next. Tabel berikut menjelaskan parameter.

      Parameter

      Deskripsi

      Contoh

      Name

      Nama konektor. Tentukan nama konektor berdasarkan aturan berikut:

      • Nama konektor harus memiliki panjang 1 hingga 48 karakter. Dapat berisi angka, huruf kecil, dan tanda hubung (-), tetapi tidak dapat dimulai dengan tanda hubung (-).

      • Setiap nama konektor harus unik dalam sebuah instance ApsaraMQ for Kafka.

      Tugas sinkronisasi data konektor harus menggunakan grup konsumen bernama dalam format connect-Nama Tugas. Jika Anda belum membuat grup konsumen seperti itu, Message Queue for Apache Kafka secara otomatis akan membuat satu untuk Anda.

      kafka-ts-sink

      Instance

      Informasi tentang instance ApsaraMQ for Kafka. Secara default, nama dan ID instance ditampilkan.

      demo alikafka_post-cn-st21p8vj****

    2. Di langkah Configure Source Service, pilih ApsaraMQ for Kafka sebagai layanan sumber, ikuti petunjuk di layar untuk mengonfigurasi parameter lainnya, lalu klik Next. Tabel berikut menjelaskan parameter.

      Catatan

      Jika Anda telah membuat topik dan grup terlebih dahulu, atur parameter Metode Pembuatan Sumber Daya ke Manual dan masukkan nama sumber daya yang telah dibuat. Jika tidak, atur parameter Metode Pembuatan Sumber Daya ke Otomatis.

      Tabel 1. Parameter yang dikonfigurasi untuk layanan sumber

      Parameter

      Deskripsi

      Contoh

      Data Source Topic

      Nama topik dari mana Anda ingin menyinkronkan data.

      ts-test-input

      Consumer Thread Concurrency

      Jumlah thread konsumen konkuren yang digunakan untuk menyinkronkan data dari topik sumber. Nilai default: 6. Nilai valid:

      • 1

      • 2

      • 3

      • 6

      • 12

      6

      Consumer Offset

      Offset dari mana Anda ingin memulai konsumsi pesan. Nilai valid:

      • Earliest Offset: mengonsumsi pesan dari offset paling awal.

      • Latest Offset: mengonsumsi pesan dari offset terbaru.

      Earliest Offset

      VPC ID

      ID virtual private cloud (VPC) tempat instance sumber diterapkan. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Secara default, ID VPC yang Anda tentukan saat menerapkan instance ApsaraMQ for Kafka sumber ditampilkan. Anda tidak perlu mengonfigurasi parameter ini.

      vpc-bp1xpdnd3l***

      vSwitch ID

      ID vSwitch yang terkait dengan instance sumber. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. vSwitch harus berada di VPC yang sama dengan instance ApsaraMQ for Kafka sumber. Secara default, ID vSwitch yang Anda tentukan saat menerapkan instance ApsaraMQ for Kafka sumber ditampilkan.

      vsw-bp1d2jgg81***

      Failure Handling Policy

      Menentukan apakah akan mempertahankan langganan ke partisi tempat terjadinya kesalahan setelah pesan gagal dikirim. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Nilai valid:

      • Continue Subscription: mempertahankan langganan ke partisi tempat terjadinya kesalahan dan mencetak log.

      • Stop Subscription: menghentikan langganan ke partisi tempat terjadinya kesalahan dan mencetak log.

      Catatan
      • Untuk informasi tentang cara melihat log konektor, lihat Kelola konektor.

      • Untuk informasi tentang cara menyelesaikan kesalahan berdasarkan kode kesalahan, lihat Kode Kesalahan.

      Continue Subscription

      Resource Creation Method

      Metode yang digunakan untuk membuat topik dan grup yang diperlukan oleh konektor sink Tablestore. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Nilai valid:

      • Auto

      • Manual

      Auto

      Connector Consumer Group

      Grup yang digunakan oleh tugas sinkronisasi data dari konektor. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Nama grup harus dalam format connect-Nama Tugas.

      connect-cluster-kafka-ots-sink

      Task Offset Topic

      Topik yang digunakan untuk menyimpan offset konsumen. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment.

      • Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-offset.

      • Partisi: jumlah partisi dalam topik. Parameter ini harus diatur ke nilai lebih besar dari 1.

      • Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini harus diatur ke Penyimpanan Lokal.

      • cleanup.policy: kebijakan pembersihan log yang digunakan oleh topik. Parameter ini harus diatur ke Padatkan.

      connect-offset-kafka-ots-sink

      Task Configuration Topic

      Topik yang digunakan untuk menyimpan konfigurasi tugas. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment.

      • Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-config.

      • Partisi: jumlah partisi dalam topik. Parameter ini harus diatur ke 1.

      • Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini harus diatur ke Penyimpanan Lokal.

      • cleanup.policy: kebijakan pembersihan log yang digunakan oleh topik. Parameter ini harus diatur ke Padatkan.

      connect-config-kafka-ots-sink

      Task Status Topic

      Topik yang digunakan untuk menyimpan status tugas. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment.

      • Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-status.

      • Partisi: jumlah partisi dalam topik. Kami sarankan Anda mengatur parameter ini ke 6.

      • Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini harus diatur ke Penyimpanan Lokal.

      • cleanup.policy: kebijakan pembersihan log yang digunakan oleh topik. Parameter ini harus diatur ke Padatkan.

      connect-status-kafka-ots-sink

      Dead-letter Queue Topic

      Topik yang digunakan untuk menyimpan data kesalahan kerangka kerja Kafka Connect. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Untuk menghemat sumber daya topik, Anda dapat membuat topik dan menggunakannya sebagai topik antrian pesan gagal dan topik data kesalahan.

      • Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-error.

      • Partisi: jumlah partisi dalam topik. Kami sarankan Anda mengatur parameter ini ke 6.

      • Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini dapat diatur ke Penyimpanan Lokal atau Penyimpanan Cloud.

      connect-error-kafka-ots-sink

      Error Data Topic

      Topik yang digunakan untuk menyimpan data kesalahan dari konektor. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Untuk menghemat sumber daya topik, Anda dapat membuat sebuah topik dan menggunakan topik tersebut sebagai dead-letter queue topic sekaligus topik data kesalahan.

      • Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-error.

      • Partisi: jumlah partisi dalam topik. Kami sarankan Anda mengatur parameter ini ke 6.

      • Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini dapat diatur ke Penyimpanan Lokal atau Penyimpanan Cloud.

      connect-error-kafka-ots-sink

    3. Di langkah Configure Destination Service, pilih Tablestore sebagai layanan tujuan, ikuti petunjuk di layar untuk mengonfigurasi parameter lainnya, lalu klik Create. Tabel berikut menjelaskan parameter.

      Parameter

      Deskripsi

      Contoh

      Instance Name

      Nama instance Tablestore.

      k00eny67****

      Automatically Create Destination Table

      Menentukan apakah akan membuat tabel tujuan di Tablestore secara otomatis. Nilai valid:

      • Yes: membuat tabel di Tablestore untuk menyimpan data yang disinkronkan. Anda dapat menentukan nama kustom untuk tabel.

      • No: menggunakan tabel yang sudah ada untuk menyimpan data yang disinkronkan.

      Ya

      Destination Table Name

      Nama tabel yang menyimpan data yang disinkronkan. Jika Anda mengatur parameter Automatically Create Destination Table ke No, pastikan nama tabel yang Anda masukkan sama dengan nama tabel yang sudah ada di instance Tablestore.

      kafka_table

      Tablestore

      Jenis tabel yang menyimpan data yang disinkronkan. Nilai valid:

      • Model Kolom Lebar

      • Model TimeSeries

      Model Kolom Lebar

      Message Key Format

      Format kunci pesan. Nilai valid: String dan JSON. Nilai default: JSON. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      • String: Kunci pesan diurai sebagai string.

      • JSON: Kunci pesan harus dalam format JSON.

      String

      Message Value Format

      Format nilai pesan. Nilai valid: String dan JSON. Nilai default: JSON. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      • String: Nilai pesan diurai sebagai string.

      • JSON: Nilai pesan harus dalam format JSON.

      String

      JSON Message Field Conversion

      Metode pemrosesan bidang pesan JSON. Parameter ini hanya ditampilkan jika Anda mengatur parameter Message Key Format atau Message Value Format ke JSON. Nilai valid:

      • Tulis Semua Sebagai String: Semua bidang dikonversi menjadi string di Tablestore.

      • Identifikasi Jenis Bidang Secara Otomatis: Bidang string dan boolean dalam badan pesan dalam format JSON dikonversi menjadi bidang string dan boolean di Tablestore, masing-masing. Data bertipe integer dan float dalam badan pesan dalam format JSON dikonversi menjadi data bertipe double di Tablestore.

      Tulis Semua Sebagai String

      Primary Key Mode

      Mode kunci utama. Kunci utama untuk tabel data dapat diekstraksi dari bagian berbeda rekaman pesan ApsaraMQ for Kafka, termasuk koordinat (topik, partisi, dan offset), kunci, dan nilai pesan. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar. Nilai default: kafka. Nilai valid:

      • kafka: menggunakan <connect_topic>_<connect_partition> dan <connect_offset> sebagai kunci utama tabel data.

      • record_key: menggunakan bidang dalam kunci pesan sebagai kunci utama tabel data.

      • record_value: menggunakan bidang dalam nilai pesan sebagai kunci utama tabel data.

      kafka

      Primary Key Column Names

      Nama kolom kunci utama dan tipe data yang sesuai. Nama kolom menentukan bidang yang diekstrak dari kunci pesan atau nilai pesan. Anda dapat mengatur tipe data bidang ke String atau Integer.

      Parameter ini ditampilkan jika Anda mengatur parameter Message Key Format ke JSON dan parameter Primary Key Mode ke record_key. Parameter ini juga ditampilkan jika Anda mengatur parameter Message Value Format ke JSON dan parameter Primary Key Mode ke record_value.

      Anda dapat mengklik Create untuk menambahkan nama kolom. Anda dapat mengonfigurasi maksimal empat nama kolom.

      Tidak Ada

      Write Mode

      Mode penulisan. Nilai valid: put dan update. Nilai default: put. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      • put: Data baru menimpa data asli dalam tabel.

      • update: Data baru ditambahkan ke tabel dan data asli dipertahankan.

      put

      Delete Mode

      Menentukan apakah akan menghapus baris atau kolom atribut jika rekaman pesan ApsaraMQ for Kafka berisi nilai kosong. Parameter ini hanya ditampilkan jika Anda mengatur parameter Primary Key Mode ke record_key. Nilai valid:

      • none: tidak mengizinkan Anda menghapus baris atau kolom atribut. Ini adalah nilai default.

      • row: mengizinkan Anda menghapus baris.

      • column: mengizinkan Anda menghapus kolom atribut.

      • row_and_column: mengizinkan Anda menghapus baris dan kolom atribut.

      Operasi penghapusan bergantung pada mode penulisan.

      • Jika Anda mengatur parameter Write Mode ke put, atur parameter Mode Penghapusan ke nilai apa pun. Bahkan jika rekaman pesan berisi nilai kosong, data rekaman pesan tersebut diekspor ke tabel Tablestore dalam mode timpa.

      • Jika Anda mengatur parameter Write Mode ke update, atur parameter Mode Penghapusan ke none atau row. Jika semua bidang dalam rekaman pesan kosong, rekaman pesan diproses sebagai data kotor. Jika bidang tertentu dalam rekaman pesan kosong, nilai kosong secara otomatis dilewati dan nilai lainnya yang tidak kosong ditambahkan ke tabel Tablestore. Jika Anda mengatur parameter Mode Penghapusan ke column atau row_and_column dan rekaman pesan berisi nilai kosong, sistem menghapus kolom atribut atau kedua baris dan kolom atribut yang sesuai dengan nilai kosong. Kemudian, data yang tersisa ditambahkan ke tabel Tablestore.

      Tidak Ada

      Metric Name Field

      Memetakan bidang sebagai bidang nama metrik (_m_name) dalam model TimeSeries Tablestore. Bidang nama metrik menunjukkan kuantitas fisik atau metrik pemantauan yang diukur oleh data deret waktu, seperti suhu atau kecepatan. Nilai kosong tidak didukung. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      measurement

      Data Source Field

      Memetakan bidang sebagai bidang sumber data (_data_source) dalam model TimeSeries Tablestore. Bidang sumber data menunjukkan sumber data deret waktu tertentu, seperti nama server atau ID perangkat. Nilai kosong didukung. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      source

      Tag Field

      Menggunakan satu atau lebih bidang sebagai bidang tag (_tags) dalam model TimeSeries di Tablestore. Setiap tag adalah pasangan kunci-nilai bertipe string. Kunci adalah nama bidang yang dikonfigurasi, dan nilainya adalah nilai bidang. Tag adalah bagian dari metadata timeline. Timeline terdiri dari nama metrik, sumber data, dan tag. Nilai kosong didukung. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      tag1, tag2

      Timestamp Field

      Memetakan bidang sebagai bidang timestamp (_time) dalam model TimeSeries Tablestore. Bidang timestamp menunjukkan titik waktu yang sesuai dengan data deret waktu baris, seperti waktu ketika kuantitas fisik dihasilkan. Saat data ditulis ke Tablestore, bidang timestamp dikonversi menjadi nilai dalam mikrodetik. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.

      time

      Timestamp Unit

      Konfigurasikan parameter ini berdasarkan konfigurasi timestamp. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model TimeSeries. Nilai valid:

      • SECONDS

      • MILLISECONDS

      • MICROSECONDS

      • NANOSECONDS

      MILLISECONDS

      Whether to Map All Non-primary Key Fields

      Menentukan apakah memetakan semua bidang non-kunci utama sebagai bidang data. Bidang kunci utama adalah bidang yang telah dipetakan sebagai nama metrik, sumber data, tag, atau timestamp. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model TimeSeries. Nilai valid:

      • Yes: Bidang-bidang dipetakan secara otomatis dan tipe data ditentukan secara otomatis. Angka semuanya dikonversi menjadi data double.

      • No: Anda harus menentukan bidang yang akan dipetakan dan tipe datanya.

      Ya

      Configure Mapping for All Non-primary Key Fields

      Tipe bidang yang sesuai dengan nama bidang non-kunci utama dalam model TimeSeries Tablestore. Tipe data berikut didukung: double, integer, string, binary, dan boolean. Parameter ini hanya ditampilkan jika Anda mengatur parameter Whether to Map All Non-primary Key Fields ke Tidak.

      String

      Setelah Anda membuat konektor, Anda dapat melihat konektor tersebut di halaman Connectors.

  6. Pergi ke halaman Connectors, temukan konektor yang Anda buat, lalu klik Deploy di kolom Actions.

  7. Klik OK.

Kirim pesan uji

Setelah Anda menyebarkan konektor sink Tablestore, Anda dapat mengirim pesan ke topik ApsaraMQ for Kafka untuk menguji apakah pesan tersebut dapat disinkronkan ke tabel Tablestore.

  1. Di halaman Connectors, temukan konektor yang ingin Anda kelola dan klik Test di kolom Actions.

  2. Di panel Send Message, konfigurasikan parameter untuk mengirim pesan untuk pengujian.

    • Jika Anda mengatur parameter Sending Method ke Console, lakukan langkah-langkah berikut:

      1. Di bidang Message Key, masukkan kunci pesan. Contoh: demo.

      2. Di bidang Message Content, masukkan isi pesan. Contoh: {"key": "test"}.

      3. Konfigurasikan parameter Send to Specified Partition untuk menentukan apakah akan mengirim pesan uji ke partisi tertentu.

        • Jika Anda ingin mengirim pesan uji ke partisi tertentu, klik Yes dan masukkan ID partisi di bidang Partition ID. Contoh: 0. Untuk informasi tentang cara menanyakan ID partisi, lihat Lihat status partisi.

        • Jika Anda tidak ingin mengirim pesan uji ke partisi tertentu, klik No.

    • Jika Anda mengatur parameter Sending Method ke Docker, jalankan perintah Docker di bagian Run the Docker container to produce a sample message untuk mengirim pesan uji.

    • Jika Anda mengatur parameter Sending Method ke SDK, pilih SDK untuk bahasa pemrograman atau framework yang diperlukan dan metode akses untuk mengirim dan berlangganan pesan uji.

Lihat data dalam tabel

Setelah Anda mengirim pesan ke topik ApsaraMQ for Kafka, Anda dapat memeriksa apakah pesan tersebut diterima di konsol Tablestore. Untuk melihat data dalam tabel Tablestore, lakukan langkah-langkah berikut:

  1. Masuk ke konsol Tablestore.

  2. Di halaman Overview, klik nama instance yang diperlukan atau klik Kelola Instance di kolom Actions instance yang diperlukan.

  3. Di bagian Tables tab Instance Details, temukan tabel yang ingin Anda kelola.查看数据表

  4. Klik nama tabel. Di tab Query Data halaman Manage Table, lihat data dalam tabel.查看表数据