Topik ini menjelaskan cara mengimpor data dari Kafka ke Layanan Log Sederhana. Setelah impor, Anda dapat menanyakan, menganalisis, dan mentransformasi data di dalam Layanan Log Sederhana.
Prasyarat
Kluster Kafka tersedia.
Sebuah Proyek dan penyimpanan log telah dibuat. Untuk informasi lebih lanjut, lihat Buat sebuah proyek dan Buat sebuah penyimpanan log.
Versi yang didukung
Hanya mendukung Kafka versi 2.2.0 dan yang lebih baru.
Buat konfigurasi impor data
Masuk ke Konsol Layanan Log Sederhana.
Di bagian Impor Data Cepat, klik Import Data. Pada tab Data Import dari kotak dialog yang muncul, klik Kafka - Data Import.
Pilih proyek dan penyimpanan log, lalu klik Next.
Konfigurasikan parameter untuk konfigurasi impor data.
Di langkah Import Configuration, konfigurasikan parameter berikut.
Parameter
Deskripsi
Job Name
ID tugas impor.
Display Name
Nama tugas impor.
Job Description
Deskripsi tugas impor.
Endpoint
Alamat yang digunakan untuk terhubung ke kluster Kafka. Anda bisa mendapatkan alamat tersebut dari bidang bootstrap.servers yang dikonfigurasi untuk kluster Kafka. Pisahkan beberapa alamat dengan koma (,).
Jika Anda menggunakan kluster Kafka yang disediakan oleh instance ApsaraMQ for Kafka milik Alibaba Cloud, Anda harus memasukkan alamat IP atau nama domain dari titik akhir instance tersebut.
Jika Anda menggunakan kluster Kafka yang diterapkan pada instance Elastic Compute Service (ECS) milik Alibaba Cloud, Anda harus memasukkan alamat IP dari instance ECS.
Jika Anda menggunakan kluster Kafka lainnya, Anda harus memasukkan alamat IP publik atau nama domain dari broker di dalam kluster Kafka.
Topics
Topik Kafka. Pisahkan beberapa topik dengan koma (,).
Consumer Group
Jika Anda menggunakan kluster Kafka yang disediakan oleh instance ApsaraMQ for Kafka milik Alibaba Cloud dan tidak mengaktifkan fitur pembuatan grup fleksibel, Anda harus memilih grup konsumen. Untuk informasi lebih lanjut tentang fitur tersebut, lihat Gunakan fitur pembuatan grup fleksibel. Untuk informasi lebih lanjut tentang cara membuat grup konsumen, lihat Buat grup konsumen.
Starting Position
Posisi dari mana Anda ingin sistem mulai mengimpor data. Nilai valid:
Earliest: Sistem mulai mengimpor data dari entri data Kafka pertama yang ada.
Latest: Sistem mulai mengimpor data dari entri data Kafka terbaru yang dihasilkan.
Data Format
Format data yang ingin Anda impor. Nilai valid:
Simple Mode: Jika data yang ingin Anda impor berformat satu baris, Anda dapat memilih Simple Mode.
JSON String: Jika data yang ingin Anda impor berformat JSON, Anda dapat memilih JSON String. Tugas impor akan mengurai data yang diimpor menjadi pasangan kunci-nilai dan hanya mengurai lapisan pertama dari data.
Parse Array Elements
Setelah Anda mengaktifkan Parse Array Elements, sistem akan membagi data dalam format array JSON menjadi beberapa bagian data berdasarkan elemen array dan kemudian mengimpor data tersebut.
Encoding Format
Format pengkodean atau set karakter dari data yang ingin Anda impor. Nilai valid: UTF-8 dan GBK.
VPC-based Instance ID
Jika instance ApsaraMQ for Kafka atau instance ECS Anda berada di dalam virtual private cloud (VPC), Anda dapat menentukan ID VPC untuk memungkinkan Layanan Log Sederhana membaca data dari kluster Kafka melalui jaringan internal Alibaba Cloud.
Data yang dibaca melalui jaringan internal Alibaba Cloud memberikan keamanan dan stabilitas jaringan yang lebih tinggi.
PentingPastikan bahwa kluster Kafka dapat diakses dari blok CIDR 100.104.0.0/16.
Time Configuration
Time Field
Bidang waktu yang digunakan untuk mencatat waktu log. Anda dapat memasukkan nama kolom yang mewakili waktu dalam data Kafka.
Regular Expression to Extract Time
Jika Anda mengatur Data Format ke Simple Mode, Anda perlu menentukan ekspresi reguler untuk mengekstrak waktu dari data Kafka.
Contohnya, jika entri data Kafka adalah
pesan dengan waktu 2022-08-08 14:20:20, Anda dapat mengatur Regular Expression to Extract Time ke\d\d\d\d-\d\d-\d\d \d\d:\d\d:\d\d.Time Field Format
Format waktu yang digunakan untuk menguraikan nilai bidang waktu.
Anda dapat menentukan format waktu yang didukung oleh Java SimpleDateFormat. Contoh: yyyy-MM-dd HH:mm:ss. Untuk informasi lebih lanjut tentang sintaks format waktu, lihat Class SimpleDateFormat. Untuk informasi lebih lanjut tentang format waktu umum, lihat Format waktu.
Anda dapat menentukan format waktu epoch. Nilai valid: epoch, epochMillis, epochMacro, dan epochNano.
Time Zone
Zona waktu dari bidang waktu.
Jika Anda mengatur Format Bidang Waktu ke format waktu epoch, Anda tidak perlu mengonfigurasi Zona Waktu.
Default Time Source
Jika tidak ada informasi ekstraksi waktu yang diberikan atau ekstraksi waktu gagal, sistem akan menggunakan sumber waktu yang Anda tentukan. Nilai valid: Waktu Sistem Saat Ini dan Timestamp Pesan Kafka.
Advanced Settings
Log Context
Setelah Anda mengaktifkan Log Context, Anda dapat menggunakan fitur pencarian kontekstual. Anda dapat melihat konteks data yang ingin Anda impor di partisi Kafka sumber.
Communication Protocol
Informasi tentang protokol komunikasi yang digunakan untuk terhubung ke kluster Kafka. Jika Anda ingin mengimpor data melalui Internet, kami sarankan Anda mengenkripsi koneksi antara Layanan Log Sederhana dan kluster Kafka serta menerapkan autentikasi pengguna. Kode contoh berikut memberikan ilustrasi.
Bidang protocol mendukung nilai berikut: plaintext, ssl, sasl_plaintext, dan sasl_ssl. Nilai yang direkomendasikan adalah sasl_ssl, yang memerlukan enkripsi koneksi dan autentikasi pengguna.
Jika Anda mengatur protocol ke sasl_plaintext atau sasl_ssl, Anda juga harus mengonfigurasi node sasl. Bidang mechanism di bawah node sasl mendukung nilai berikut: PLAIN, SCRAM-SHA-256, dan SCRAM-SHA-512. Bidang ini menentukan mekanisme otentikasi username-password.
{ "protocol":"sasl_plaintext", "sasl":{ "mechanism":"PLAIN", "username":"xxx", "password":"yyy" } }Private Domain Resolution
Jika Anda menggunakan kluster Kafka yang diterapkan pada instance ECS dan broker di dalam kluster saling terhubung melalui titik akhir internal, Anda harus menentukan titik akhir dan alamat IP dari instance ECS untuk setiap broker. Contoh:
{ "hostname#1":"192.168.XX.XX", "hostname#2":"192.168.XX.XX", "hostname#3":"192.168.XX.XX" }Klik Preview untuk melihat pratinjau hasil impor.
Setelah mengonfirmasi hasilnya, klik Next.
Pratinjau data, konfigurasikan indeks, lalu klik Next.
Secara default, pengindeksan teks penuh diaktifkan untuk Layanan Log. Anda juga dapat mengonfigurasi indeks bidang berdasarkan log yang dikumpulkan dalam mode manual atau otomatis. Untuk mengonfigurasi indeks bidang dalam mode otomatis, klik Automatic Index Generation. Dengan cara ini, Layanan Log secara otomatis membuat indeks bidang. Untuk informasi lebih lanjut, lihat Buat indeks.
PentingJika Anda ingin menanyakan dan menganalisis log, Anda harus mengaktifkan pengindeksan teks penuh atau pengindeksan bidang. Jika Anda mengaktifkan kedua pengindeksan teks penuh dan pengindeksan bidang, sistem hanya akan menggunakan indeks bidang.
Klik Query Log. Di halaman analisis dan permintaan, periksa apakah data Kafka telah diimpor.
Tunggu sekitar 1 menit. Jika data Kafka yang diperlukan ada, data tersebut telah diimpor.
Lihat konfigurasi impor data
Setelah membuat konfigurasi impor data, Anda dapat melihat detail konfigurasi dan laporan statistik terkait di konsol Layanan Log Sederhana.
Di bagian Proyek, klik proyek tempat konfigurasi impor data berada.
Temukan dan klik penyimpanan log tempat konfigurasi impor data berada, pilih , lalu klik nama konfigurasi impor data.
Di halaman Import Configuration Overview, lihat informasi dasar dan laporan statistik dari konfigurasi impor data.
Apa yang harus dilakukan selanjutnya
Di halaman Import Configuration Overview, Anda dapat melakukan operasi berikut pada konfigurasi impor data:
Ubah konfigurasi impor data
Untuk mengubah konfigurasi impor data, klik Edit Configurations. Untuk informasi lebih lanjut, lihat Buat konfigurasi impor data.
Hapus konfigurasi impor data
Untuk menghapus konfigurasi impor data, klik Delete Configuration.
PeringatanSetelah konfigurasi impor data dihapus, konfigurasi tersebut tidak dapat dipulihkan.
Hentikan pekerjaan impor
Untuk menghentikan pekerjaan impor data, klik Stop.
Tanya Jawab Umum
Deskripsi Masalah | Penyebab Potensial | Solusi |
Kesalahan koneksi broker terjadi selama pratinjau. Kode kesalahan: Broker transport failure. |
|
|
Kesalahan batas waktu terjadi selama pratinjau. Kode kesalahan: permintaan pratinjau habis waktu. | Topik Kafka yang ditentukan dalam konfigurasi impor data tidak berisi data. | Jika topik Kafka tidak berisi data, tulis data ke topik dan pratinjau data lagi. |
Karakter acak ada di dalam data yang diimpor. | Format pengkodean yang ditentukan dalam konfigurasi impor data tidak memenuhi persyaratan. | Perbarui konfigurasi impor data berdasarkan format pengkodean aktual dari data Kafka. Untuk menangani karakter acak yang sudah ada, buat penyimpanan log dan konfigurasi impor data. |
Waktu log yang ditampilkan di Layanan Log Sederhana berbeda dari waktu sebenarnya dari data yang diimpor. | Tidak ada bidang waktu yang ditentukan dalam konfigurasi impor data, atau format waktu atau zona waktu yang ditentukan tidak valid. | Tentukan bidang waktu atau tentukan format waktu dan zona waktu yang valid. Untuk informasi lebih lanjut, lihat Buat konfigurasi impor data. |
Setelah data diimpor, data tersebut tidak dapat ditanyakan atau dianalisis. |
|
|
Jumlah entri data yang diimpor kurang dari yang diharapkan. | Ukuran beberapa pesan Kafka melebihi 3 MB. Anda dapat memeriksa ukuran pesan Kafka pada dasbor Data Processing Insight. | Pastikan bahwa ukuran setiap pesan Kafka tidak melebihi 3 MB. |
Latensi besar terjadi selama impor. |
|
|
Penanganan kesalahan
Item | Deskripsi |
Kesalahan koneksi jaringan terjadi. | Tugas impor secara berkala dicoba ulang. Setelah koneksi jaringan dipulihkan, tugas impor melanjutkan konsumsi data dari offset gangguan impor data sebelumnya. |
Topik Kafka tidak ada. | Jika topik Kafka yang berisi data untuk diimpor tidak ada, tugas impor akan melewati topik tersebut. Hal ini tidak memengaruhi impor data dari topik normal lainnya. Setelah topik dibuat ulang, tugas impor mengonsumsi data dalam topik seperti yang diharapkan, dengan latensi sekitar 10 menit. |