Topik ini menjelaskan batasan terkait impor data dari Kafka ke Simple Log Service.
Batasan pada pengumpulan
Item | Deskripsi |
Format kompresi | Kafka Producer mendukung data yang dikompresi dalam format berikut: gzip, zstd, lz4, dan snappy. Kafka Producer membuang data yang dikompresi dalam format lain. Anda dapat melihat jumlah entri data yang dibuang di bagan Deliver Failed pada dasbor Data Processing Insight. Untuk informasi lebih lanjut, lihat Lihat konfigurasi impor data. |
Jumlah maksimum topik | Maksimum 10.000 topik dapat ditentukan dalam konfigurasi impor data. |
Ukuran log tunggal | Ukuran log tunggal dibatasi hingga 3 MB. Jika ukuran log melebihi batas, log tersebut akan dibuang. Anda dapat melihat jumlah log yang dibuang di bagan Deliver Failed pada dasbor Data Processing Insight. Untuk informasi lebih lanjut, lihat Lihat konfigurasi impor data. |
Posisi awal | Saat Anda mengonfigurasi parameter Posisi Awal untuk konfigurasi impor data, Anda hanya dapat memilih Earliest atau Latest. Anda tidak dapat menentukan titik waktu sebagai posisi awal untuk impor data. |
Batasan pada konfigurasi
Item | Deskripsi |
Jumlah konfigurasi impor data | Jumlah total konfigurasi impor data yang dapat dibuat dalam satu proyek dapat mencapai hingga 100 terlepas dari jenis konfigurasi. Jika Anda ingin meningkatkan batas, ajukan tiket. |
Lebar pita jaringan | Saat tugas impor data membaca data dari kluster Alibaba Cloud Kafka melalui virtual private cloud (VPC), lebar pita jaringan maksimum yang diizinkan untuk tugas tersebut adalah 128 MB/s secara default. Jika Anda memerlukan lebar pita yang lebih tinggi, ajukan tiket. |
Batasan pada performa
Item | Deskripsi |
Jumlah sub-tugas konkuren | Layanan Log Sederhana membuat beberapa sub-tugas impor untuk mengimpor data secara bersamaan berdasarkan jumlah topik Kafka di backend. Setiap sub-tugas dapat memproses data terdekompresi dengan laju maksimum 50 MB/s.
Jika Anda ingin meningkatkan batas, ajukan tiket. |
Jumlah partisi untuk sebuah topik | Jika sebuah topik Kafka memiliki sejumlah besar partisi, sub-tugas tambahan dapat dibuat untuk meningkatkan throughput impor data. Jika sebuah topik Kafka memiliki sejumlah besar data, Anda dapat meningkatkan jumlah partisi untuk topik tersebut. Kami merekomendasikan agar jumlah partisi untuk sebuah topik tidak kurang dari 16. |
Jumlah shard dalam sebuah penyimpanan log | Performa penulisan Layanan Log Sederhana bervariasi berdasarkan jumlah shard dalam sebuah penyimpanan log. Satu shard mendukung kecepatan tulis hingga 5 MB/s. Jika tugas impor menulis sejumlah besar data ke Layanan Log Sederhana, kami merekomendasikan agar Anda meningkatkan jumlah shard dalam penyimpanan log. Untuk informasi lebih lanjut, lihat Kelola shard. |
Kompresi data | Jika Anda ingin mengimpor sejumlah besar data dari Kafka ke Layanan Log Sederhana, kami merekomendasikan agar Anda mengompresi data saat menulis data ke Kafka. Dengan cara ini, jumlah data yang dibaca melalui jaringan secara signifikan berkurang. Transmisi jaringan lebih memakan waktu daripada dekompresi data, terutama ketika data diimpor melalui Internet. |
Jaringan | Jika kluster Alibaba Cloud Kafka Anda diterapkan dalam VPC, Anda dapat membaca data dari kluster melalui VPC. Ini mengurangi lalu lintas Internet dan mempercepat transmisi data. Dalam skenario ini, bandwidth pembacaan data dapat mencapai lebih dari 100 MB/s. Saat Anda mengimpor data melalui Internet, performa dan bandwidth jaringan tidak dapat dijamin. Hal ini dapat menyebabkan latensi impor. |
Batasan lainnya
Item | Deskripsi |
Latensi sinkronisasi metadata | Tugas impor menyinkronkan metadata kluster Kafka Anda dengan Layanan Log Sederhana setiap interval 10 menit. Jika sebuah topik atau partisi baru dibuat, metadata topik atau partisi tersebut diimpor setelah latensi sekitar 10 menit. Catatan Jika Anda menetapkan parameter Posisi Awal ke Latest dalam konfigurasi impor data, data yang awalnya ditulis ke topik baru mungkin dilewati (dalam maksimum 10 menit). |
Masa berlaku offset untuk sebuah topik | Offset untuk sebuah topik Kafka berlaku hingga tujuh hari. Jika tidak ada data yang dibaca dari sebuah topik dalam tujuh hari, offset tersebut akan dibuang. Jika data baru ditulis ke topik setelah tujuh hari, Layanan Log Sederhana menentukan offset mana yang akan digunakan berdasarkan starting position yang ditentukan dalam konfigurasi impor data. |