Topik ini menjelaskan cara membuat konektor sink Tablestore untuk menyinkronkan data dari topik pada instance ApsaraMQ for Kafka ke tabel pada instance Tablestore.
Prasyarat
ApsaraMQ for Kafka
Fitur konektor diaktifkan untuk instance ApsaraMQ for Kafka. Untuk informasi lebih lanjut, lihat Aktifkan fitur konektor.
Sebuah topik dibuat sebagai sumber data pada instance ApsaraMQ for Kafka. Untuk informasi lebih lanjut, lihat Langkah 1: Buat topik.
Tablestore
Tablestore diaktifkan dan sebuah instance dibuat. Untuk informasi lebih lanjut, lihat Aktifkan Tablestore dan buat instance.
Catatan Penggunaan
Data hanya dapat diekspor dari topik pada instance ApsaraMQ for Kafka ke tabel pada instance Tablestore yang berada di wilayah yang sama dengan instance ApsaraMQ for Kafka. Untuk informasi tentang batasan pada konektor, lihat Batasan.
Saat membuat konektor sink Tablestore, diperlukan peran terhubung layanan.
Jika peran terhubung layanan belum dibuat, ApsaraMQ for Kafka secara otomatis membuat peran tersebut. Dengan cara ini, Anda dapat mengekspor data dari ApsaraMQ for Kafka ke Tablestore sesuai harapan.
Jika peran terhubung layanan telah dibuat, ApsaraMQ for Kafka tidak akan membuat peran tersebut lagi.
Untuk informasi lebih lanjut, lihat Peran terhubung layanan.
Proses
Bagian ini menjelaskan cara menggunakan konektor sink Tablestore untuk mengekspor data dari topik pada instance ApsaraMQ for Kafka ke tabel pada instance Tablestore.
(Opsional) Buat topik dan grup yang diperlukan oleh konektor sink Tablestore.
Jika Anda tidak ingin membuat topik dan grup secara manual, lewati langkah ini dan atur parameter Metode Pembuatan Sumber Daya ke Otomatis pada langkah berikutnya.
PentingTopik tertentu yang diperlukan oleh konektor sink Tablestore harus menggunakan penyimpanan lokal. Jika versi utama instance ApsaraMQ for Kafka Anda adalah 0.10.2, Anda tidak dapat membuat topik yang menggunakan penyimpanan lokal secara manual. Pada versi utama 0.10.2, topik-topik ini harus dibuat secara otomatis.
Verifikasi hasil
Buat topik yang diperlukan oleh konektor sink Tablestore
Anda dapat membuat topik-topik berikut yang diperlukan oleh konektor sink Tablestore secara manual di konsol ApsaraMQ for Kafka: topik offset tugas, topik konfigurasi tugas, topik status tugas, topik antrian pesan gagal, dan topik data kesalahan. Jumlah partisi dan mesin penyimpanan yang diperlukan oleh masing-masing topik bervariasi. Untuk informasi lebih lanjut, lihat Parameter yang dikonfigurasi untuk layanan sumber.
Masuk ke konsol ApsaraMQ for Kafka.
Di bagian Resource Distribution halaman Overview, pilih wilayah tempat instance ApsaraMQ for Kafka yang ingin Anda kelola berada.
PentingAnda harus membuat topik di wilayah tempat instance Elastic Compute Service (ECS) Anda diterapkan. Topik tidak dapat digunakan lintas wilayah. Sebagai contoh, jika produsen dan konsumen pesan berjalan pada instance ECS yang diterapkan di wilayah Tiongkok (Beijing), topik tersebut juga harus dibuat di wilayah Tiongkok (Beijing).
Pada halaman Instances, klik nama instance yang ingin Anda kelola.
Di panel navigasi sisi kiri, klik Topics.
Pada halaman Topics, klik Create Topic.
Di panel Create Topic, tentukan properti topik dan klik OK.
Parameter
Deskripsi
Contoh
Name
Nama topik.
demo
Description
Deskripsi topik.
demo test
Partitions
Jumlah partisi dalam topik.
12
Storage Engine
CatatanAnda dapat menentukan jenis mesin penyimpanan hanya jika Anda menggunakan instance Edisi Profesional non-serverless. Untuk jenis instance lainnya, Cloud Storage dipilih secara default.
Jenis mesin penyimpanan yang digunakan untuk menyimpan pesan dalam topik.
ApsaraMQ for Kafka mendukung jenis mesin penyimpanan berikut:
Cloud Storage: Jika Anda memilih nilai ini, sistem menggunakan disk Alibaba Cloud untuk topik dan menyimpan data dalam tiga replika dalam mode terdistribusi. Mesin penyimpanan ini memiliki latensi rendah, performa tinggi, daya tahan panjang, dan keandalan tinggi. Jika Anda mengatur parameter Instance Edition ke Standard (High Write) saat Anda membuat instance, Anda hanya dapat mengatur parameter ini ke Cloud Storage.
Local Storage: Jika Anda memilih nilai ini, sistem menggunakan algoritma in-sync replicas (ISR) dari Apache Kafka open source dan menyimpan data dalam tiga replika dalam mode terdistribusi.
Cloud Storage
Message Type
Jenis pesan topik. Nilai valid:
Normal Message: Secara default, pesan dengan kunci yang sama disimpan dalam partisi yang sama sesuai urutan pengiriman pesan. Jika broker dalam kluster gagal, urutan pesan yang disimpan dalam partisi mungkin tidak dipertahankan. Jika Anda mengatur parameter Storage Engine ke Cloud Storage, parameter ini secara otomatis diatur ke Normal Message.
Partitionally Ordered Message: Secara default, pesan dengan kunci yang sama disimpan dalam partisi yang sama sesuai urutan pengiriman pesan. Jika broker dalam kluster gagal, pesan tetap disimpan dalam partisi sesuai urutan pengiriman pesan. Pesan dalam beberapa partisi tidak dapat dikirim sampai partisi dipulihkan. Jika Anda mengatur parameter Storage Engine ke Local Storage, parameter ini secara otomatis diatur ke Partitionally Ordered Message.
Normal Message
Log Cleanup Policy
Kebijakan pembersihan log yang digunakan oleh topik.
Jika Anda mengatur parameter Storage Engine ke Local Storage, Anda harus mengonfigurasi parameter Log Cleanup Policy. Anda dapat mengatur Parameter Mesin Penyimpanan ke Penyimpanan Lokal hanya jika Anda menggunakan instance Edisi Profesional ApsaraMQ for Kafka.
ApsaraMQ for Kafka menyediakan kebijakan pembersihan log berikut:
Delete: kebijakan pembersihan log default. Jika ruang penyimpanan yang cukup tersedia dalam sistem, pesan disimpan berdasarkan periode retensi maksimum. Setelah penggunaan penyimpanan melebihi 85%, sistem menghapus pesan yang disimpan paling awal untuk memastikan ketersediaan layanan.
Compact: kebijakan pemadatan log yang digunakan dalam Apache Kafka. Pemadatan log memastikan bahwa nilai terbaru dipertahankan untuk pesan dengan kunci yang sama. Kebijakan ini cocok untuk skenario seperti memulihkan sistem yang gagal atau memuat ulang cache setelah sistem dimulai ulang. Sebagai contoh, saat Anda menggunakan Kafka Connect atau Confluent Schema Registry, Anda harus menyimpan informasi tentang status dan konfigurasi sistem dalam topik yang dipadatkan log.
PentingAnda hanya dapat menggunakan topik yang dipadatkan log dalam komponen cloud-native tertentu, seperti Kafka Connect dan Confluent Schema Registry. Untuk informasi lebih lanjut, lihat aliware-kafka-demos.
Compact
Tag
Tag yang ingin Anda lampirkan ke topik.
demo
Setelah topik dibuat, Anda dapat melihat topik tersebut di halaman Topics.
Buat grup yang diperlukan oleh konektor sink Tablestore
Anda dapat membuat grup yang diperlukan oleh konektor sink Tablestore secara manual di konsol ApsaraMQ for Kafka. Nama grup harus dalam format connect-Nama Tugas. Untuk informasi lebih lanjut, lihat Parameter yang dikonfigurasi untuk layanan sumber.
Masuk ke konsol ApsaraMQ for Kafka.
Di bagian Resource Distribution halaman Overview, pilih wilayah tempat instance ApsaraMQ for Kafka yang ingin Anda kelola berada.
Pada halaman Instances, klik nama instance yang ingin Anda kelola.
Di panel navigasi sisi kiri, klik Groups.
Di halaman Groups, klik tombol Create Group.
Di panel Create Group, masukkan nama grup di bidang Group ID dan deskripsi grup di bidang Description, lampirkan tag ke grup, lalu klik OK.
Setelah Anda membuat grup konsumen, Anda dapat melihat grup konsumen tersebut di halaman Groups.
Buat dan sebarkan konektor sink Tablestore
Lakukan langkah-langkah berikut untuk membuat dan menyebarkan konektor sink Tablestore yang dapat Anda gunakan untuk mengekspor data dari ApsaraMQ for Kafka ke Tablestore.
Masuk ke konsol ApsaraMQ for Kafka.
Di bagian Resource Distribution halaman Overview, pilih wilayah tempat instance ApsaraMQ for Kafka yang ingin Anda kelola berada.
Di panel navigasi sisi kiri, klik Connectors.
Pada halaman Connectors, pilih instance tempat konektor tersebut berasal dari daftar drop-down Select Instance dan klik Create Connector.
Di wizard Create Connector, lakukan langkah-langkah berikut:
Di langkah Configure Basic Information, ikuti petunjuk di layar untuk mengonfigurasi parameter dan klik Next. Tabel berikut menjelaskan parameter.
Parameter
Deskripsi
Contoh
Name
Nama konektor. Tentukan nama konektor berdasarkan aturan berikut:
Nama konektor harus memiliki panjang 1 hingga 48 karakter. Dapat berisi angka, huruf kecil, dan tanda hubung (-), tetapi tidak dapat dimulai dengan tanda hubung (-).
Setiap nama konektor harus unik dalam sebuah instance ApsaraMQ for Kafka.
Tugas sinkronisasi data konektor harus menggunakan grup konsumen bernama dalam format connect-Nama Tugas. Jika Anda belum membuat grup konsumen seperti itu, Message Queue for Apache Kafka secara otomatis akan membuat satu untuk Anda.
kafka-ts-sink
Instance
Informasi tentang instance ApsaraMQ for Kafka. Secara default, nama dan ID instance ditampilkan.
demo alikafka_post-cn-st21p8vj****
Di langkah Configure Source Service, pilih ApsaraMQ for Kafka sebagai layanan sumber, ikuti petunjuk di layar untuk mengonfigurasi parameter lainnya, lalu klik Next. Tabel berikut menjelaskan parameter.
CatatanJika Anda telah membuat topik dan grup terlebih dahulu, atur parameter Metode Pembuatan Sumber Daya ke Manual dan masukkan nama sumber daya yang telah dibuat. Jika tidak, atur parameter Metode Pembuatan Sumber Daya ke Otomatis.
Tabel 1. Parameter yang dikonfigurasi untuk layanan sumber
Parameter
Deskripsi
Contoh
Data Source Topic
Nama topik dari mana Anda ingin menyinkronkan data.
ts-test-input
Consumer Thread Concurrency
Jumlah thread konsumen konkuren yang digunakan untuk menyinkronkan data dari topik sumber. Nilai default: 6. Nilai valid:
1
2
3
6
12
6
Consumer Offset
Offset dari mana Anda ingin memulai konsumsi pesan. Nilai valid:
Earliest Offset: mengonsumsi pesan dari offset paling awal.
Latest Offset: mengonsumsi pesan dari offset terbaru.
Earliest Offset
VPC ID
ID virtual private cloud (VPC) tempat instance sumber diterapkan. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Secara default, ID VPC yang Anda tentukan saat menerapkan instance ApsaraMQ for Kafka sumber ditampilkan. Anda tidak perlu mengonfigurasi parameter ini.
vpc-bp1xpdnd3l***
vSwitch ID
ID vSwitch yang terkait dengan instance sumber. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. vSwitch harus berada di VPC yang sama dengan instance ApsaraMQ for Kafka sumber. Secara default, ID vSwitch yang Anda tentukan saat menerapkan instance ApsaraMQ for Kafka sumber ditampilkan.
vsw-bp1d2jgg81***
Failure Handling Policy
Menentukan apakah akan mempertahankan langganan ke partisi tempat terjadinya kesalahan setelah pesan gagal dikirim. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Nilai valid:
Continue Subscription: mempertahankan langganan ke partisi tempat terjadinya kesalahan dan mencetak log.
Stop Subscription: menghentikan langganan ke partisi tempat terjadinya kesalahan dan mencetak log.
CatatanUntuk informasi tentang cara melihat log konektor, lihat Kelola konektor.
Untuk informasi tentang cara menyelesaikan kesalahan berdasarkan kode kesalahan, lihat Kode Kesalahan.
Continue Subscription
Resource Creation Method
Metode yang digunakan untuk membuat topik dan grup yang diperlukan oleh konektor sink Tablestore. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Nilai valid:
Auto
Manual
Auto
Connector Consumer Group
Grup yang digunakan oleh tugas sinkronisasi data dari konektor. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Nama grup harus dalam format connect-Nama Tugas.
connect-cluster-kafka-ots-sink
Task Offset Topic
Topik yang digunakan untuk menyimpan offset konsumen. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment.
Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-offset.
Partisi: jumlah partisi dalam topik. Parameter ini harus diatur ke nilai lebih besar dari 1.
Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini harus diatur ke Penyimpanan Lokal.
cleanup.policy: kebijakan pembersihan log yang digunakan oleh topik. Parameter ini harus diatur ke Padatkan.
connect-offset-kafka-ots-sink
Task Configuration Topic
Topik yang digunakan untuk menyimpan konfigurasi tugas. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment.
Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-config.
Partisi: jumlah partisi dalam topik. Parameter ini harus diatur ke 1.
Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini harus diatur ke Penyimpanan Lokal.
cleanup.policy: kebijakan pembersihan log yang digunakan oleh topik. Parameter ini harus diatur ke Padatkan.
connect-config-kafka-ots-sink
Task Status Topic
Topik yang digunakan untuk menyimpan status tugas. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment.
Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-status.
Partisi: jumlah partisi dalam topik. Kami sarankan Anda mengatur parameter ini ke 6.
Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini harus diatur ke Penyimpanan Lokal.
cleanup.policy: kebijakan pembersihan log yang digunakan oleh topik. Parameter ini harus diatur ke Padatkan.
connect-status-kafka-ots-sink
Dead-letter Queue Topic
Topik yang digunakan untuk menyimpan data kesalahan kerangka kerja Kafka Connect. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Untuk menghemat sumber daya topik, Anda dapat membuat topik dan menggunakannya sebagai topik antrian pesan gagal dan topik data kesalahan.
Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-error.
Partisi: jumlah partisi dalam topik. Kami sarankan Anda mengatur parameter ini ke 6.
Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini dapat diatur ke Penyimpanan Lokal atau Penyimpanan Cloud.
connect-error-kafka-ots-sink
Error Data Topic
Topik yang digunakan untuk menyimpan data kesalahan dari konektor. Parameter ini hanya ditampilkan setelah Anda mengklik Configure Runtime Environment. Untuk menghemat sumber daya topik, Anda dapat membuat sebuah topik dan menggunakan topik tersebut sebagai dead-letter queue topic sekaligus topik data kesalahan.
Topik: nama topik. Kami sarankan Anda memulai nama topik dengan connect-error.
Partisi: jumlah partisi dalam topik. Kami sarankan Anda mengatur parameter ini ke 6.
Mesin Penyimpanan: mesin penyimpanan yang digunakan oleh topik. Parameter ini dapat diatur ke Penyimpanan Lokal atau Penyimpanan Cloud.
connect-error-kafka-ots-sink
Di langkah Configure Destination Service, pilih Tablestore sebagai layanan tujuan, ikuti petunjuk di layar untuk mengonfigurasi parameter lainnya, lalu klik Create. Tabel berikut menjelaskan parameter.
Parameter
Deskripsi
Contoh
Instance Name
Nama instance Tablestore.
k00eny67****
Automatically Create Destination Table
Menentukan apakah akan membuat tabel tujuan di Tablestore secara otomatis. Nilai valid:
Yes: membuat tabel di Tablestore untuk menyimpan data yang disinkronkan. Anda dapat menentukan nama kustom untuk tabel.
No: menggunakan tabel yang sudah ada untuk menyimpan data yang disinkronkan.
Ya
Destination Table Name
Nama tabel yang menyimpan data yang disinkronkan. Jika Anda mengatur parameter Automatically Create Destination Table ke No, pastikan nama tabel yang Anda masukkan sama dengan nama tabel yang sudah ada di instance Tablestore.
kafka_table
Tablestore
Jenis tabel yang menyimpan data yang disinkronkan. Nilai valid:
Model Kolom Lebar
Model TimeSeries
Model Kolom Lebar
Message Key Format
Format kunci pesan. Nilai valid: String dan JSON. Nilai default: JSON. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
String: Kunci pesan diurai sebagai string.
JSON: Kunci pesan harus dalam format JSON.
String
Message Value Format
Format nilai pesan. Nilai valid: String dan JSON. Nilai default: JSON. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
String: Nilai pesan diurai sebagai string.
JSON: Nilai pesan harus dalam format JSON.
String
JSON Message Field Conversion
Metode pemrosesan bidang pesan JSON. Parameter ini hanya ditampilkan jika Anda mengatur parameter Message Key Format atau Message Value Format ke JSON. Nilai valid:
Tulis Semua Sebagai String: Semua bidang dikonversi menjadi string di Tablestore.
Identifikasi Jenis Bidang Secara Otomatis: Bidang string dan boolean dalam badan pesan dalam format JSON dikonversi menjadi bidang string dan boolean di Tablestore, masing-masing. Data bertipe integer dan float dalam badan pesan dalam format JSON dikonversi menjadi data bertipe double di Tablestore.
Tulis Semua Sebagai String
Primary Key Mode
Mode kunci utama. Kunci utama untuk tabel data dapat diekstraksi dari bagian berbeda rekaman pesan ApsaraMQ for Kafka, termasuk koordinat (topik, partisi, dan offset), kunci, dan nilai pesan. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar. Nilai default: kafka. Nilai valid:
kafka: menggunakan <connect_topic>_<connect_partition> dan <connect_offset> sebagai kunci utama tabel data.
record_key: menggunakan bidang dalam kunci pesan sebagai kunci utama tabel data.
record_value: menggunakan bidang dalam nilai pesan sebagai kunci utama tabel data.
kafka
Primary Key Column Names
Nama kolom kunci utama dan tipe data yang sesuai. Nama kolom menentukan bidang yang diekstrak dari kunci pesan atau nilai pesan. Anda dapat mengatur tipe data bidang ke String atau Integer.
Parameter ini ditampilkan jika Anda mengatur parameter Message Key Format ke JSON dan parameter Primary Key Mode ke record_key. Parameter ini juga ditampilkan jika Anda mengatur parameter Message Value Format ke JSON dan parameter Primary Key Mode ke record_value.
Anda dapat mengklik Create untuk menambahkan nama kolom. Anda dapat mengonfigurasi maksimal empat nama kolom.
Tidak Ada
Write Mode
Mode penulisan. Nilai valid: put dan update. Nilai default: put. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
put: Data baru menimpa data asli dalam tabel.
update: Data baru ditambahkan ke tabel dan data asli dipertahankan.
put
Delete Mode
Menentukan apakah akan menghapus baris atau kolom atribut jika rekaman pesan ApsaraMQ for Kafka berisi nilai kosong. Parameter ini hanya ditampilkan jika Anda mengatur parameter Primary Key Mode ke record_key. Nilai valid:
none: tidak mengizinkan Anda menghapus baris atau kolom atribut. Ini adalah nilai default.
row: mengizinkan Anda menghapus baris.
column: mengizinkan Anda menghapus kolom atribut.
row_and_column: mengizinkan Anda menghapus baris dan kolom atribut.
Operasi penghapusan bergantung pada mode penulisan.
Jika Anda mengatur parameter Write Mode ke put, atur parameter Mode Penghapusan ke nilai apa pun. Bahkan jika rekaman pesan berisi nilai kosong, data rekaman pesan tersebut diekspor ke tabel Tablestore dalam mode timpa.
Jika Anda mengatur parameter Write Mode ke update, atur parameter Mode Penghapusan ke none atau row. Jika semua bidang dalam rekaman pesan kosong, rekaman pesan diproses sebagai data kotor. Jika bidang tertentu dalam rekaman pesan kosong, nilai kosong secara otomatis dilewati dan nilai lainnya yang tidak kosong ditambahkan ke tabel Tablestore. Jika Anda mengatur parameter Mode Penghapusan ke column atau row_and_column dan rekaman pesan berisi nilai kosong, sistem menghapus kolom atribut atau kedua baris dan kolom atribut yang sesuai dengan nilai kosong. Kemudian, data yang tersisa ditambahkan ke tabel Tablestore.
Tidak Ada
Metric Name Field
Memetakan bidang sebagai bidang nama metrik (_m_name) dalam model TimeSeries Tablestore. Bidang nama metrik menunjukkan kuantitas fisik atau metrik pemantauan yang diukur oleh data deret waktu, seperti suhu atau kecepatan. Nilai kosong tidak didukung. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
measurement
Data Source Field
Memetakan bidang sebagai bidang sumber data (_data_source) dalam model TimeSeries Tablestore. Bidang sumber data menunjukkan sumber data deret waktu tertentu, seperti nama server atau ID perangkat. Nilai kosong didukung. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
source
Tag Field
Menggunakan satu atau lebih bidang sebagai bidang tag (_tags) dalam model TimeSeries di Tablestore. Setiap tag adalah pasangan kunci-nilai bertipe string. Kunci adalah nama bidang yang dikonfigurasi, dan nilainya adalah nilai bidang. Tag adalah bagian dari metadata timeline. Timeline terdiri dari nama metrik, sumber data, dan tag. Nilai kosong didukung. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
tag1, tag2
Timestamp Field
Memetakan bidang sebagai bidang timestamp (_time) dalam model TimeSeries Tablestore. Bidang timestamp menunjukkan titik waktu yang sesuai dengan data deret waktu baris, seperti waktu ketika kuantitas fisik dihasilkan. Saat data ditulis ke Tablestore, bidang timestamp dikonversi menjadi nilai dalam mikrodetik. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model Kolom Lebar.
time
Timestamp Unit
Konfigurasikan parameter ini berdasarkan konfigurasi timestamp. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model TimeSeries. Nilai valid:
SECONDS
MILLISECONDS
MICROSECONDS
NANOSECONDS
MILLISECONDS
Whether to Map All Non-primary Key Fields
Menentukan apakah memetakan semua bidang non-kunci utama sebagai bidang data. Bidang kunci utama adalah bidang yang telah dipetakan sebagai nama metrik, sumber data, tag, atau timestamp. Parameter ini hanya ditampilkan jika Anda mengatur parameter Tablestore ke Model TimeSeries. Nilai valid:
Yes: Bidang-bidang dipetakan secara otomatis dan tipe data ditentukan secara otomatis. Angka semuanya dikonversi menjadi data double.
No: Anda harus menentukan bidang yang akan dipetakan dan tipe datanya.
Ya
Configure Mapping for All Non-primary Key Fields
Tipe bidang yang sesuai dengan nama bidang non-kunci utama dalam model TimeSeries Tablestore. Tipe data berikut didukung: double, integer, string, binary, dan boolean. Parameter ini hanya ditampilkan jika Anda mengatur parameter Whether to Map All Non-primary Key Fields ke Tidak.
String
Setelah Anda membuat konektor, Anda dapat melihat konektor tersebut di halaman Connectors.
Pergi ke halaman Connectors, temukan konektor yang Anda buat, lalu klik Deploy di kolom Actions.
Klik OK.
Kirim pesan uji
Setelah Anda menyebarkan konektor sink Tablestore, Anda dapat mengirim pesan ke topik ApsaraMQ for Kafka untuk menguji apakah pesan tersebut dapat disinkronkan ke tabel Tablestore.
Di halaman Connectors, temukan konektor yang ingin Anda kelola dan klik Test di kolom Actions.
Di panel Send Message, konfigurasikan parameter untuk mengirim pesan untuk pengujian.
Jika Anda mengatur parameter Sending Method ke Console, lakukan langkah-langkah berikut:
Di bidang Message Key, masukkan kunci pesan. Contoh: demo.
Di bidang Message Content, masukkan isi pesan. Contoh: {"key": "test"}.
Konfigurasikan parameter Send to Specified Partition untuk menentukan apakah akan mengirim pesan uji ke partisi tertentu.
Jika Anda ingin mengirim pesan uji ke partisi tertentu, klik Yes dan masukkan ID partisi di bidang Partition ID. Contoh: 0. Untuk informasi tentang cara menanyakan ID partisi, lihat Lihat status partisi.
Jika Anda tidak ingin mengirim pesan uji ke partisi tertentu, klik No.
Jika Anda mengatur parameter Sending Method ke Docker, jalankan perintah Docker di bagian Run the Docker container to produce a sample message untuk mengirim pesan uji.
Jika Anda mengatur parameter Sending Method ke SDK, pilih SDK untuk bahasa pemrograman atau framework yang diperlukan dan metode akses untuk mengirim dan berlangganan pesan uji.
Lihat data dalam tabel
Setelah Anda mengirim pesan ke topik ApsaraMQ for Kafka, Anda dapat memeriksa apakah pesan tersebut diterima di konsol Tablestore. Untuk melihat data dalam tabel Tablestore, lakukan langkah-langkah berikut:
Masuk ke konsol Tablestore.
Di halaman Overview, klik nama instance yang diperlukan atau klik Kelola Instance di kolom Actions instance yang diperlukan.
Di bagian Tables tab Instance Details, temukan tabel yang ingin Anda kelola.

Klik nama tabel. Di tab Query Data halaman Manage Table, lihat data dalam tabel.
