Log bisnis dan sistem yang tersebar di berbagai server sulit dicari, dipantau, dan dianalisis secara terpusat. Gunakan LoongCollector (Logtail) untuk mengumpulkan log teks secara real-time dari instance ECS, IDC yang dikelola sendiri, atau host dari penyedia cloud lainnya, lalu kirimkan ke Simple Log Service (SLS) guna manajemen dan analisis terpusat. Untuk mengumpulkan log lengkap, impor file log historis.
Catatan penggunaan
Sistem operasi dan arsitektur yang didukung:
LoongCollector hanya mendukung sistem Linux. Untuk host Windows, gunakan Logtail. Kami menyarankan Anda menggunakan LoongCollector untuk skenario pengumpulan baru.
LoongCollector adalah agen pengumpulan log generasi berikutnya dari SLS, yang merupakan versi peningkatan dari Logtail. Anda hanya perlu menginstal LoongCollector atau Logtail, bukan keduanya.
Persyaratan sumber daya komputasi:
CPU: Minimal 0,4 core.
Memori: Minimal 300 MB.
Penggunaan yang disarankan: Untuk memastikan operasi stabil, pertahankan penggunaan sumber daya aktual LoongCollector (Logtail) di bawah 80% dari batas. Penggunaan aktual bergantung pada faktor seperti kecepatan pengumpulan, jumlah direktori dan file yang dipantau, serta tingkat pemblokiran pengiriman.
Persyaratan izin:
Jika Anda menggunakan pengguna Resource Access Management (RAM), Anda harus memberikan izin
AliyunLogFullAccessdanAliyunECSFullAccess. Untuk otorisasi detail halus, lihat Lampiran: Kebijakan izin kustom.
Alur kerja konfigurasi pengumpulan
Preparations: Buat proyek dan penyimpanan log (logstore). Proyek adalah unit manajemen resource yang digunakan untuk mengisolasi log aplikasi yang berbeda, sedangkan logstore digunakan untuk menyimpan log.
Configure a machine group (Install LoongCollector): Instal LoongCollector sesuai jenis server dan tambahkan server ke kelompok mesin. Kelompok mesin digunakan untuk mengelola node pengumpulan, mendistribusikan konfigurasi, dan mengelola status server.
Create and configure log collection rules:
Global and input configurations: Tentukan nama konfigurasi pengumpulan dan sumber serta cakupan pengumpulan log.
Log processing and structuring: Konfigurasikan aturan pemrosesan berdasarkan format log.
Log multiline: Gunakan mode ini untuk log tunggal yang mencakup beberapa baris, seperti stack exception Java atau traceback Python. Identifikasi awal setiap log dengan ekspresi reguler untuk menggabungkan baris-baris berurutan menjadi satu log lengkap.
Penguraian terstruktur: Gunakan plugin penguraian, seperti plugin ekspresi reguler, pemisah, atau pola NGINX, untuk mengekstrak string mentah menjadi pasangan kunci-nilai terstruktur. Setiap field kemudian dapat dikueri dan dianalisis secara independen.
Log filtering: Konfigurasikan blacklist pengumpulan dan aturan penyaringan konten untuk memfilter konten log yang valid. Hal ini mengurangi transmisi dan penyimpanan data berlebihan.
Kategorisasi log: Gunakan topik untuk membedakan log dari aplikasi, server, atau sumber path yang berbeda.
Query and analysis configuration: Indeks teks lengkap diaktifkan secara default untuk mendukung pencarian kata kunci. Aktifkan indeks field untuk kueri dan analisis presisi pada field terstruktur guna meningkatkan efisiensi pencarian.
Verification and troubleshooting: Setelah konfigurasi selesai, verifikasi apakah log berhasil dikumpulkan. Jika Anda mengalami masalah seperti tidak ada pengumpulan data, kegagalan heartbeat, atau error parsing, lihat FAQ untuk troubleshooting.
Persiapan
Sebelum mengumpulkan log, Anda harus membuat proyek dan logstore untuk mengelola dan menyimpan log. Jika Anda sudah memiliki resource ini, lewati langkah ini dan lanjutkan ke Konfigurasikan kelompok mesin (Instal LoongCollector).
Buat proyek
Buat logstore
Langkah 1: Konfigurasikan kelompok mesin (Instal LoongCollector)
Setelah menyelesaikan Persiapan, instal LoongCollector pada server Anda dan tambahkan ke kelompok mesin.
Langkah instalasi berikut hanya berlaku jika sumber log adalah instance ECS Alibaba Cloud yang berada dalam akun dan wilayah Alibaba Cloud yang sama dengan proyek SLS.
Jika instance ECS dan proyek Anda berada di akun atau wilayah berbeda, atau jika sumber log adalah server on-premises, lihat Instal dan konfigurasikan LoongCollector.
Prosedur:
Pada halaman
Logstores, klik ikon
di sebelah kiri nama logstore target untuk memperluasnya.Klik ikon
di sebelah Data Collection, lalu pada kotak dialog Quick Data Import, pilih templat pengumpulan log teks (misalnya Single Line - Text Log) dan klik Integrate Now.Semua templat pengumpulan log teks hanya berbeda pada plugin parsing-nya. Proses konfigurasi sisanya sama dan dapat dimodifikasi nanti.
Pada halaman Machine Group Configurations, konfigurasikan parameter berikut:
Scenario: Servers
Installation Environment: ECS
Pilih Kelompok Mesin: Berdasarkan status instalasi LoongCollector dan konfigurasi kelompok mesin server target, pilih operasi yang sesuai:
Jika LoongCollector telah diinstal dan ditambahkan ke kelompok mesin, pilih kelompok mesin dari daftar Source Machine Group dan tambahkan ke Applied Server Groups. Anda tidak perlu membuat yang baru.
Jika LoongCollector belum diinstal, klik Create Machine Group:
Langkah-langkah berikut akan memandu Anda melalui instalasi otomatis satu-klik LoongCollector dan pembuatan kelompok mesin.
Sistem secara otomatis mencantumkan instance ECS di wilayah yang sama dengan proyek. Pilih satu atau beberapa instance dari mana Anda ingin mengumpulkan log.
Klik Install and Create Machine Group. Sistem secara otomatis menginstal LoongCollector pada instance ECS yang dipilih.
Konfigurasikan Name kelompok mesin dan klik OK.
CatatanJika instalasi gagal atau tetap dalam status menunggu, periksa apakah wilayah ECS sama dengan wilayah proyek.
Untuk menambahkan server yang telah menginstal LoongCollector ke kelompok mesin yang sudah ada, lihat FAQ Bagaimana cara menambahkan server ke kelompok mesin yang sudah ada?
Periksa status heartbeat: Klik Next. Bagian Machine Group Heartbeat muncul. Periksa status Heartbeat. Jika statusnya OK, koneksi kelompok mesin normal. Klik Next untuk menuju halaman konfigurasi Logtail.
Jika statusnya FAIL, mungkin diperlukan waktu untuk membangun heartbeat awal. Tunggu sekitar dua menit lalu refresh status heartbeat. Jika masih FAIL setelah direfresh, lihat Heartbeat kelompok mesin adalah FAIL untuk troubleshooting lebih lanjut.
Langkah 2: Buat dan konfigurasikan aturan pengumpulan log
Setelah menyelesaikan instalasi LoongCollector dan konfigurasi kelompok mesin, masuk ke halaman Logtail Configuration dan tentukan aturan pengumpulan dan pemrosesan log.
1. Konfigurasi global dan input
Tentukan nama konfigurasi pengumpulan dan sumber serta cakupan pengumpulan log.
Global Configurations:
Configuration Name: Nama kustom untuk konfigurasi pengumpulan. Nama ini harus unik dalam proyek dan tidak dapat diubah setelah dibuat. Konvensi penamaan:
Hanya boleh berisi huruf kecil, angka, tanda hubung (-), dan garis bawah (_).
Harus dimulai dan diakhiri dengan huruf kecil atau angka.
Input Configurations:
Type: Text Log Collection.
File Path: Jalur pengumpulan log.
Linux: Jalur harus dimulai dengan garis miring (/). Misalnya,
/data/mylogs/**/*.logmenunjukkan semua file dengan ekstensi .log di direktori/data/mylogsdan subdirektorinya.Windows: Jalur harus dimulai dengan huruf drive. Misalnya,
C:\Program Files\Intel\**\*.Log.
Maximum Directory Monitoring Depth: Kedalaman maksimum direktori yang cocok dengan karakter wildcard
**dalam File Path. Nilai default adalah 0, yang berarti hanya direktori saat ini yang dipantau.
2. Pemrosesan dan strukturisasi log
Konfigurasikan aturan pemrosesan log untuk mengubah log mentah yang tidak terstruktur menjadi data terstruktur yang dapat dicari. Hal ini meningkatkan efisiensi kueri dan analisis log. Kami menyarankan Anda terlebih dahulu menambahkan contoh log:
Pada bagian Processor Configurations di halaman Logtail Configuration, klik Add Sample Log dan masukkan konten log yang akan dikumpulkan. Sistem mengidentifikasi format log berdasarkan contoh tersebut dan membantu menghasilkan ekspresi reguler serta aturan parsing, yang menyederhanakan konfigurasi.
Skenario 1: Proses log multiline (seperti log stack Java)
Karena log seperti stack exception Java dan objek JSON sering kali mencakup beberapa baris, mode pengumpulan default membaginya menjadi beberapa catatan tidak lengkap, yang menyebabkan kehilangan konteks. Untuk mencegah hal ini, aktifkan mode multiline dan konfigurasikan Regex to Match First Line untuk menggabungkan baris-baris berurutan dari log yang sama menjadi satu log lengkap.
Contoh:
Log mentah tanpa pemrosesan apa pun | Dalam mode pengumpulan default, setiap baris adalah log terpisah, memecah jejak stack dan kehilangan konteks | Dengan mode multiline diaktifkan, Regex to Match First Line mengidentifikasi log lengkap, mempertahankan struktur semantik penuhnya. |
|
|
|
Prosedur: Pada bagian Processor Configurations di halaman Logtail Configuration, aktifkan Multi-line Mode:
Untuk Type, pilih Custom atau Multi-line JSON.
Custom: Untuk log mentah dengan format variabel, konfigurasikan Regex to Match First Line untuk mengidentifikasi baris awal setiap log.
Regex to Match First Line: Secara otomatis menghasilkan atau memasukkan secara manual ekspresi reguler yang cocok dengan baris data lengkap. Misalnya, ekspresi reguler untuk contoh sebelumnya adalah
\[\d+-\d+-\w+:\d+:\d+,\d+]\s\[\w+]\s.*.Generasi otomatis: Klik Generate. Lalu, pada kotak teks Log Sample, pilih konten log yang ingin diekstrak dan klik Automatically Generate.
Masukan manual: Klik Manually Enter Regular Expression. Setelah memasukkan ekspresi, klik Validate.
Multi-line JSON: SLS secara otomatis menangani jeda baris dalam satu log mentah jika log tersebut dalam format JSON standar.
Processing Method If Splitting Fails:
Discard: Membuang segmen teks jika tidak cocok dengan aturan awal baris.
Retain Single Line: Mempertahankan teks yang tidak cocok pada baris terpisah.
Skenario 2: Log terstruktur
Ketika log mentah berupa teks tidak terstruktur atau semi-terstruktur, seperti log akses NGINX atau log output aplikasi, kueri dan analisis langsung sering kali tidak efisien. SLS menyediakan berbagai plugin parsing data yang secara otomatis mengonversi log mentah dengan format berbeda menjadi data terstruktur. Hal ini memberikan fondasi data yang kuat untuk analisis, pemantauan, dan peringatan selanjutnya.
Contoh:
Log mentah | Log terstruktur |
| |
Prosedur: Pada bagian Processor Configurations di halaman Logtail Configuration
Tambahkan plugin parsing: Klik Add Processor dan konfigurasikan plugin seperti parsing ekspresi reguler, parsing pemisah, atau parsing JSON berdasarkan format aktual. Contoh ini menggunakan pengumpulan log NGINX dan memilih .
NGINX Log Configuration: Salin definisi
log_formatdari file konfigurasi server NGINX (nginx.conf) dan tempelkan ke kotak teks ini.Contoh:
log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$request_time $request_length ''$status $body_bytes_sent "$http_referer" ''"$http_user_agent"';PentingDefinisi format di sini harus persis sama dengan format yang menghasilkan log di server. Jika tidak, parsing log akan gagal.
Deskripsi parameter konfigurasi umum: Parameter berikut muncul di beberapa plugin parsing data dan memiliki fungsi serta penggunaan yang terpadu.
Original Field: Menentukan nama field sumber yang akan diurai. Default-nya adalah
content, yaitu seluruh entri log yang dikumpulkan.Retain Original Field if Parsing Fails: Kami menyarankan Anda mengaktifkan opsi ini. Ketika log tidak dapat diurai dengan sukses oleh plugin, misalnya karena ketidakcocokan format, opsi ini memastikan bahwa konten log asli tidak hilang tetapi sepenuhnya dipertahankan di field sumber yang ditentukan.
Retain Original Field if Parsing Succeeds: Jika Anda memilih ini, konten log asli dipertahankan bahkan jika log berhasil diurai.
3. Penyaringan log
Mengumpulkan volume besar log bernilai rendah atau tidak relevan, seperti log tingkat DEBUG atau INFO, membuang sumber daya penyimpanan, meningkatkan biaya, memengaruhi efisiensi kueri, dan menimbulkan risiko kebocoran data. Untuk mengatasi hal ini, terapkan kebijakan penyaringan detail halus untuk pengumpulan log yang efisien dan aman.
Kurangi biaya dengan penyaringan konten
Filter field berdasarkan konten log, seperti hanya mengumpulkan log dengan level WARNING atau ERROR.
Contoh:
Log mentah tanpa pemrosesan apa pun | Kumpulkan hanya log |
| |
Prosedur: Pada bagian Processor Configurations di halaman Logtail Configuration
Klik Add Processor dan pilih :
Field Name: Field log yang digunakan untuk penyaringan.
Field Value: Ekspresi reguler yang digunakan untuk penyaringan. Hanya mendukung kecocokan penuh, bukan kecocokan kata kunci parsial.
Kontrol cakupan pengumpulan dengan blacklist
Gunakan blacklist untuk mengecualikan direktori atau file tertentu, yang mencegah log tidak relevan atau sensitif diunggah.
Prosedur: Pada bagian di halaman Logtail Configuration, aktifkan Collection Blacklist dan klik Add.
Mendukung kecocokan penuh dan wildcard untuk direktori dan nama file. Satu-satunya karakter wildcard yang didukung adalah tanda bintang (*) dan tanda tanya (?).
File Path Blacklist: Menentukan jalur file yang akan dikecualikan. Contoh:
/home/admin/private*.log: Mengabaikan semua file di direktori/home/admin/yang dimulai dengan private dan diakhiri dengan .log./home/admin/private*/*_inner.log: Mengabaikan file yang diakhiri dengan _inner.log dalam direktori yang dimulai dengan private di bawah direktori/home/admin/.
File Blacklist: Daftar nama file yang diabaikan selama pengumpulan. Contoh:
app_inner.log: Mengabaikan semua file bernamaapp_inner.logselama pengumpulan.
Directory Blacklist: Jalur direktori tidak boleh diakhiri dengan garis miring (/). Contoh:
/home/admin/dir1/: Blacklist direktori tidak akan berlaku./home/admin/dir*: Mengabaikan file di semua subdirektori yang dimulai dengan dir di bawah direktori/home/admin/selama pengumpulan./home/admin/*/dir: Mengabaikan semua file di subdirektori bernama dir pada tingkat kedua direktori/home/admin/. Misalnya, file di direktori/home/admin/a/dirdiabaikan, tetapi file di direktori/home/admin/a/b/dirdikumpulkan.
4. Kategorisasi log
Ketika log dari beberapa aplikasi atau instans memiliki format yang sama tetapi jalur berbeda, seperti /apps/app-A/run.log dan /apps/app-B/run.log, sulit membedakan sumbernya selama pengumpulan. Dengan mengonfigurasi topik, Anda dapat membedakan log dari aplikasi, layanan, atau jalur yang berbeda secara logis. Hal ini memungkinkan kategorisasi efisien dan kueri presisi dalam satu logstore.
Prosedur: : Pilih metode untuk menghasilkan topik. Tiga jenis berikut didukung:
Machine Group Topic: Saat konfigurasi pengumpulan diterapkan ke beberapa kelompok mesin, LoongCollector secara otomatis menggunakan nama kelompok mesin server sebagai field
__topic__untuk diunggah. Cocok untuk skenario di mana log dibagi berdasarkan host.Custom: Menggunakan format
customized://<custom_topic_name>, seperticustomized://app-login. Format ini cocok untuk skenario topik statis dengan pengenal bisnis tetap.File Path Extraction: Ekstrak informasi kunci dari jalur lengkap file log untuk menandai sumber log secara dinamis. Cocok untuk situasi di mana beberapa pengguna atau aplikasi berbagi nama file log yang sama tetapi memiliki jalur berbeda. Misalnya, ketika beberapa pengguna atau layanan menulis log ke direktori tingkat atas yang berbeda tetapi sub-jalur dan nama filenya identik, sumber tidak dapat dibedakan hanya berdasarkan nama file:
/data/logs ├── userA │ └── serviceA │ └── service.log ├── userB │ └── serviceA │ └── service.log └── userC └── serviceA └── service.logKonfigurasikan File Path Extraction dan gunakan ekspresi reguler untuk mengekstrak informasi kunci dari jalur lengkap. Hasil yang cocok kemudian diunggah ke logstore sebagai topik.
Aturan ekstraksi jalur file: Berdasarkan grup penangkapan ekspresi reguler
Saat Anda mengonfigurasi ekspresi reguler, sistem secara otomatis menentukan format field output berdasarkan jumlah dan penamaan grup penangkapan. Aturannya sebagai berikut:
Dalam ekspresi reguler untuk jalur file, Anda harus meng-escape garis miring (/).
Jenis grup penangkapan
Kasus penggunaan
Field yang dihasilkan
Contoh Regex
Contoh jalur yang cocok
Contoh bidang yang dihasilkan
Grup penangkapan tunggal (hanya satu
(.*?))Hanya satu dimensi yang dibutuhkan untuk membedakan sumber (seperti username atau lingkungan)
Menghasilkan field
__topic__\/logs\/(.*?)\/app\.log/logs/userA/app.log__topic__: userABeberapa grup penangkapan - tidak bernama (beberapa
(.*?))Beberapa dimensi dibutuhkan untuk membedakan sumber, tetapi tidak memerlukan tag semantik
Menghasilkan field tag
__tag__:__topic_{i}__, di mana{i}adalah nomor urut grup penangkapan\/logs\/(.*?)\/(.*?)\/app\.log/logs/userA/svcA/app.log__tag__:__topic_1__userA__tag__:__topic_2__svcABeberapa grup penangkapan - bernama (menggunakan
(?P<name>.*?)Beberapa dimensi dibutuhkan untuk membedakan sumber, dan makna field harus jelas untuk memudahkan kueri dan analisis
Menghasilkan field tag
__tag__:{name}\/logs\/(?P<user>.*?)\/(?P<service>.*?)\/app\.log/logs/userA/svcA/app.log__tag__:user:userA;__tag__:service:svcA
Langkah 3: Konfigurasi kueri dan analisis
Setelah mengonfigurasi pemrosesan log dan plugin, klik Next untuk menuju halaman Query and Analysis Configurations:
Indeks teks lengkap diaktifkan secara default, yang mendukung pencarian kata kunci pada konten log mentah.
Untuk kueri presisi berdasarkan field, tunggu Preview Data dimuat, lalu klik Automatic Index Generation. SLS menghasilkan indeks field berdasarkan entri pertama dalam data pratinjau.
Setelah konfigurasi selesai, klik Next untuk menyelesaikan seluruh proses pengumpulan.
Langkah 4: Verifikasi dan troubleshooting
Setelah konfigurasi selesai, terapkan ke kelompok mesin dan simpan. Tunggu sebentar, lalu verifikasi menggunakan daftar periksa berikut.
Daftar periksa verifikasi
Konfirmasi bahwa file log memiliki konten baru: LoongCollector hanya mengumpulkan log inkremental. Jalankan
tail -f /path/to/your/log/filedan picu operasi bisnis untuk memastikan log baru sedang ditulis.Periksa status LoongCollector:
sudo /etc/init.d/loongcollectord status.Periksa heartbeat kelompok mesin: Masuk ke halaman . Klik nama kelompok mesin target. Di bagian , periksa status Heartbeat.
Jika heartbeat OK, kelompok mesin terhubung ke proyek SLS.
Jika heartbeat FAIL, lihat Heartbeat kelompok mesin adalah FAIL untuk troubleshooting.
Kueri log: Masuk ke halaman kueri dan analisis logstore target. Klik Search & Analyze (rentang waktu default adalah 15 menit terakhir) dan periksa apakah log baru mengalir masuk.
Penyelesaian masalah umum
Heartbeat kelompok mesin adalah FAIL
Periksa ID pengguna: Jika server Anda bukan instance ECS, atau jika instance ECS dan proyek termasuk dalam akun Alibaba Cloud yang berbeda, periksa apakah ID pengguna yang benar ada di direktori yang ditentukan. Jika tidak, jalankan perintah berikut untuk membuatnya secara manual.
Linux: Jalankan perintah
cd /etc/ilogtail/users/ && touch <uid>untuk membuat file ID pengguna.Windows: Masuk ke direktori
C:\LogtailData\users\dan buat file kosong bernama<uid>.
Periksa ID kelompok mesin: Jika Anda menggunakan ID kustom saat membuat kelompok mesin, periksa apakah file
user_defined_idada di direktori yang ditentukan. Jika ada, periksa apakah isi file konsisten dengan ID kustom yang dikonfigurasi untuk kelompok mesin.Linux:
# Konfigurasikan ID kustom. Jika direktori tidak ada, buat secara manual. echo "user-defined-1" > /etc/ilogtail/user_defined_idWindows: Di direktori
C:\LogtailData, buat file baru bernamauser_defined_iddan tulis ID kustom ke dalamnya. (Jika direktori tidak ada, buat secara manual.)
Jika ID pengguna dan ID kelompok mesin dikonfigurasi dengan benar, lihat Troubleshooting masalah kelompok mesin LoongCollector (Logtail) untuk investigasi lebih lanjut.
Tidak ada data yang dikumpulkan
Periksa log inkremental: Setelah Anda mengonfigurasi LoongCollector (Logtail) untuk pengumpulan, jika tidak ada log baru yang ditambahkan ke file log target, LoongCollector (Logtail) tidak mengumpulkan data dari file tersebut.
Periksa status heartbeat kelompok mesin: Masuk ke halaman . Klik nama kelompok mesin target. Di bagian , periksa status Heartbeat.
Jika heartbeat OK, kelompok mesin terhubung ke proyek SLS.
Jika heartbeat FAIL, lihat Heartbeat kelompok mesin adalah FAIL untuk troubleshooting.
Konfirmasi bahwa konfigurasi pengumpulan LoongCollector (Logtail) telah diterapkan ke kelompok mesin: Bahkan jika konfigurasi pengumpulan LoongCollector (Logtail) dibuat, log tidak dapat dikumpulkan jika tidak diterapkan ke kelompok mesin.
Masuk ke halaman , klik nama kelompok mesin target, dan masuk ke halaman Machine Group Configurations.
Di halaman tersebut, lihat Manage Configuration. Sisi kiri menampilkan All Logtail Configurations, dan sisi kanan menampilkan Applied Logtail Configs. Jika konfigurasi pengumpulan LoongCollector (Logtail) target telah dipindahkan ke area terapan di sebelah kanan, konfigurasi telah berhasil diterapkan ke kelompok mesin target.
Jika konfigurasi pengumpulan LoongCollector (Logtail) target belum dipindahkan ke area terapan di sebelah kanan, klik Modify. Di daftar All Logtail Configurations di sebelah kiri, pilih nama konfigurasi LoongCollector (Logtail) target, klik
untuk memindahkannya ke area terapan di sebelah kanan, lalu klik Save.
Error pengumpulan log atau error format
Troubleshooting: Situasi ini menunjukkan bahwa koneksi jaringan dan konfigurasi dasar normal. Masalahnya kemungkinan besar ketidakcocokan antara konten log dan aturan parsing. Anda perlu memeriksa pesan error spesifik untuk menemukan masalahnya:
Di halaman Logtail Configuration, klik nama konfigurasi LoongCollector (Logtail) yang mengalami error pengumpulan. Di tab Log Collection Error, klik Select Time Range untuk mengatur waktu kueri.
Di bagian , lihat metrik alarm log error dan temukan solusi yang sesuai di Error umum dalam pengumpulan data.
Batasan
Item | Batasan |
Panjang log tunggal | Batas default adalah 512 KB. Sesuaikan ini menggunakan parameter startup max_read_buffer_size, hingga maksimum 8 MB. Untuk informasi lebih lanjut, lihat Jenis jaringan Logtail, parameter startup, dan file konfigurasi. Setelah log multiline dibagi oleh Regex to Match First Line, batas ukuran untuk setiap log tetap 512 KB. Jika log melebihi 512 KB, log tersebut dipaksa dibagi menjadi beberapa entri untuk pengumpulan. Misalnya, jika satu log berukuran 1.025 KB, 512 KB pertama diproses, lalu 512 KB berikutnya, dan akhirnya sisa 1 KB. Hasil akhirnya adalah beberapa entri log tidak lengkap. |
Encoding file | Mendukung file log dengan encoding UTF-8 atau GBK. Gunakan UTF-8 untuk kinerja pemrosesan yang lebih baik. Peringatan Jika file log menggunakan format encoding lain, masalah seperti karakter acak dan kehilangan data dapat terjadi. |
Rotasi file log | Ukuran default antrian rotasi log adalah 20. Sesuaikan ini menggunakan parameter startup logreader_max_rotate_queue_size. Untuk informasi lebih lanjut, lihat Jenis jaringan Logtail, parameter startup, dan file konfigurasi. Atur jalur pengumpulan ke format Penting Jangan mencampur kedua format ini dalam instans Logtail yang sama. Jika tidak, file yang sama mungkin cocok dengan beberapa konfigurasi pengumpulan Logtail, yang mengakibatkan pengumpulan duplikat. Jika lebih dari 20 file belum diproses, log yang baru dihasilkan akan hilang. Dalam kasus seperti ini, pertama-tama periksa apakah kuota penulisan shard logstore telah terlampaui dan sesuaikan tingkat konkurensi Logtail. Untuk informasi lebih lanjut, lihat Jenis jaringan Logtail, parameter startup, dan file konfigurasi. |
Perilaku pengumpulan saat parsing log diblokir | Saat parsing log diblokir, Logtail menyimpan deskriptor file untuk file log tersebut tetap terbuka. Hal ini mencegah file dihapus selama pemblokiran, yang dapat menyebabkan kehilangan data. Jika terjadi beberapa rotasi file log saat parsing diblokir, Logtail menempatkan file-file tersebut dalam antrian rotasi. |
Ekspresi reguler | Mendukung Perl Compatible Regular Expressions (PCRE). |
JSON | Mendukung sepenuhnya JSON standar (RFC7159, ECMA-404). JSON non-standar, seperti |
Perilaku pembukaan file | Logtail menyimpan file yang dikumpulkan dan file dalam antrian rotasi tetap terbuka untuk memastikan integritas data. File ditutup dalam situasi berikut:
Jika Anda ingin handle file dilepas dalam waktu yang dapat dikontrol setelah file dihapus, terlepas dari apakah file telah sepenuhnya dikumpulkan atau masih ditulis, atur timeout menggunakan parameter startup force_release_deleted_file_fd_timeout. Untuk informasi lebih lanjut, lihat Jenis jaringan Logtail, parameter startup, dan file konfigurasi. |
Perilaku pengumpulan log awal | Logtail hanya mengumpulkan file log inkremental. Saat file pertama kali terdeteksi dimodifikasi, jika ukurannya melebihi 1 MB (512 KB untuk output standar kontainer), pengumpulan dimulai dari 1 MB terakhir. Jika tidak, dimulai dari awal file. Sesuaikan ukuran pengumpulan awal untuk file baru menggunakan parameter tail_size_kb dalam konfigurasi pengumpulan Logtail. Untuk informasi lebih lanjut, lihat Konfigurasi Logtail (legacy). Jika file log tidak dimodifikasi setelah konfigurasi pengumpulan Logtail diterapkan, Logtail tidak mengumpulkan file tersebut. Untuk mengumpulkan file historis, lihat Impor file log historis. |
Perilaku saat file ditimpa | Logtail mengidentifikasi file menggunakan inode ditambah hash 1.024 byte pertama file. Jika file ditimpa dan inode atau hash 1.024 byte pertama berubah, file dianggap sebagai file baru dan pengumpulan dimulai dari awal. Jika tidak, file tidak dikumpulkan. |
Perilaku saat file dipindahkan | Setelah file dipindahkan, jika file tersebut cocok dengan konfigurasi pengumpulan Logtail yang sebelumnya tidak pernah cocok dengan file ini, dokumen yang dipindahkan dianggap sebagai file baru dan pengumpulan dimulai dari awal. Jika tidak, file tidak dikumpulkan. |
Riwayat pengumpulan file | Logtail menyimpan riwayat pengumpulan file dalam memori untuk memastikan hanya bagian inkremental yang dikumpulkan setelah file berubah. Jika terjadi penulisan ke log di luar rentang retensi, pengumpulan duplikat terjadi.
|
Log teks non-standar | Untuk baris dalam log yang berisi |
Penagihan
Menginstal LoongCollector atau Logtail tidak dikenai biaya.
Biaya dikenakan untuk injeksi log, penyimpanan, pengindeksan, kueri, transformasi, dan pengiriman berdasarkan metode penagihan logstore.
Jika Anda menggunakan fitur Global Accelerator selama instalasi atau konfigurasi, biaya trafik tambahan dikenakan untuk data yang ditransmisikan melalui jaringan yang dipercepat.
FAQ
Bagaimana cara mengirim log dari server ECS ke proyek di akun Alibaba Cloud lain?
Jika Anda belum menginstal LoongCollector, lihat Instalasi dan konfigurasi dan pilih skenario cross-account yang sesuai untuk instalasi.
Jika Anda telah menginstal LoongCollector, ikuti langkah-langkah berikut untuk mengonfigurasi ID pengguna. ID ini menunjukkan bahwa server memiliki izin untuk diakses dan lognya dikumpulkan oleh akun pemilik proyek SLS.
Anda hanya perlu mengonfigurasi ID pengguna saat mengumpulkan log dari instance ECS non-akun, server on-premises, atau server dari penyedia cloud lain.
Salin ID akun Alibaba Cloud pemilik SLS: Arahkan kursor ke gambar profil di pojok kanan atas. Lihat dan salin ID akun dari tab yang muncul.
Masuk ke server dari mana Anda ingin mengumpulkan log dan buat file ID akun Alibaba Cloud untuk mengonfigurasi ID pengguna:
touch /etc/ilogtail/users/{Alibaba_Cloud_account_ID} # Jika direktori /etc/ilogtail/users tidak ada, buat secara manual. File konfigurasi ID pengguna hanya memerlukan nama file, bukan ekstensi file.
Bagaimana cara mengirim log dari server ECS ke proyek di akun yang sama tetapi wilayah berbeda?
Jika Anda belum menginstal LoongCollector, lihat Instalasi dan konfigurasi dan pilih skenario cross-region yang sesuai untuk instalasi.
Jika Anda telah menginstal LoongCollector, Anda perlu memodifikasi konfigurasi LoongCollector.
Jalankan perintah
sudo /etc/init.d/ilogtaild stopuntuk menghentikan LoongCollector.Modifikasi file konfigurasi startup LoongCollector
ilogtail_config.json. Pilih salah satu dari dua metode berikut berdasarkan kebutuhan jaringan Anda:Jalur file konfigurasi:
/usr/local/ilogtail/ilogtail_config.jsonMetode 1: Gunakan Internet untuk transmisi
Lihat RegionID dan ganti wilayah dalam file konfigurasi dengan wilayah tempat SLS berada. Field yang perlu dimodifikasi meliputi:
primary_regionBagian wilayah dalam
config_serversregiondan bagian wilayah dariendpoint_listdalamdata_servers
Metode 2: Gunakan akselerasi transfer
Ganti baris endpoint dalam parameter data_server_list dengan
log-global.aliyuncs.com. Untuk jalur file, lihat Jenis jaringan Logtail, parameter startup, dan file konfigurasi.
Jalankan perintah
sudo /etc/init.d/ilogtaild startuntuk memulai LoongCollector.
Bagaimana cara menambahkan server ke kelompok mesin yang sudah ada?
Saat Anda memiliki kelompok mesin yang telah dikonfigurasi dan ingin menambahkan server baru, seperti instance ECS yang baru dideploy atau server on-premises, untuk mewarisi konfigurasi pengumpulannya, ikat dengan mengikuti langkah-langkah berikut.
Prasyarat:
Kelompok mesin yang telah dikonfigurasi sudah ada.
Server baru telah menginstal LoongCollector.
Prosedur:
Lihat ID kelompok mesin target:
Di halaman proyek target, klik
di panel navigasi sebelah kiri.Di halaman Machine Groups, klik nama kelompok mesin target.
Di halaman konfigurasi kelompok mesin, lihat ID kelompok mesin.
Lakukan operasi yang sesuai berdasarkan jenis ID:
CatatanSatu kelompok mesin tidak dapat berisi server Linux dan Windows sekaligus. Jangan mengonfigurasi ID kustom yang sama pada server Linux dan Windows. Server dapat dikonfigurasi dengan beberapa ID kustom, dipisahkan dengan line feed.
Jenis 1: ID kelompok mesin adalah alamat IP
Di server, jalankan perintah berikut untuk membuka file
app_info.jsondan lihat nilaiip.cat /usr/local/ilogtail/app_info.jsonDi halaman konfigurasi kelompok mesin target, klik Modify dan masukkan alamat IP server. Pisahkan beberapa alamat IP dengan line feed.
Setelah konfigurasi selesai, klik Save dan konfirmasi status heartbeat. Setelah heartbeat OK, server secara otomatis menerapkan konfigurasi pengumpulan kelompok mesin.
Jika status heartbeat FAIL, lihat FAQ Heartbeat kelompok mesin adalah FAIL untuk troubleshooting lebih lanjut.
Jenis 2: ID kelompok mesin adalah ID kustom
Bergantung pada sistem operasi, tulis string ID kustom yang cocok dengan kelompok mesin target ke file yang ditentukan:
Jika direktori tidak ada, Anda harus membuatnya secara manual. Jalur dan nama file ditetapkan oleh SLS dan tidak dapat dikustomisasi.
Linux: Tulis string kustom ke file
/etc/ilogtail/user_defined_id.Windows: Tulis string kustom ke
C:\LogtailData\user_defined_id.
Bagaimana cara mengimpor konfigurasi pengumpulan dari proyek lain?
Setelah menyelesaikan Persiapan dan Konfigurasi Kelompok Mesin, impor konfigurasi pengumpulan dari proyek yang ada ke logstore saat ini dengan cepat. Hal ini menghindari konfigurasi berulang dan meningkatkan efisiensi.
Prosedur:
Setelah menyelesaikan konfigurasi kelompok mesin, klik Next untuk menuju halaman Logtail Configuration.
Klik Import Other Configuration di pojok kanan atas halaman.
Pilih proyek untuk diimpor dan konfigurasi pengumpulan di bawah proyek tersebut.
Klik OK. Sistem secara otomatis memuat konfigurasi yang dipilih.
Setelah memeriksa bahwa informasi konfigurasi yang diimpor benar, klik Next untuk menuju halaman Konfigurasi Kueri dan Analisis dan selesaikan konfigurasi selanjutnya.
Bagaimana cara mendapatkan alamat IP server untuk digunakan sebagai ID kelompok mesin?
Di server tempat LoongCollector (Logtail) diinstal, buka file /usr/local/ilogtail/app_info.json dan lihat nilai ip.
Alamat IP server yang diperoleh secara otomatis oleh Logtail dicatat di field ip file app_info.json, seperti yang ditunjukkan di bawah.
Jika ada beberapa server, masukkan alamat IP-nya secara manual. Alamat IP harus dipisahkan dengan line feed.
Satu kelompok mesin tidak dapat berisi server Linux dan Windows sekaligus. Jangan menambahkan alamat IP server Windows dan Linux ke kelompok mesin yang sama.
Bagaimana log file yang sama dapat dikumpulkan oleh beberapa konfigurasi pengumpulan sekaligus?
Secara default, untuk menghindari duplikasi data, SLS membatasi file log teks agar tidak dikumpulkan oleh lebih dari satu konfigurasi Logtail. Untuk mengizinkan file log yang sama dikumpulkan oleh beberapa konfigurasi pengumpulan sekaligus, Anda harus mengaktifkan fitur yang mengizinkan file dikumpulkan beberapa kali secara manual.
Prosedur:
Saat Anda mengumpulkan beberapa salinan, IO pembacaan file, sumber daya komputasi, dan IO jaringan meningkat secara linear.
Masuk ke Konsol Simple Log Service dan masuk ke proyek target.
Di panel navigasi sebelah kiri, pilih
Logstores dan temukan logstore target.Klik ikon
di sebelah kiri namanya untuk memperluas logstore.Klik Logtail Configuration. Di daftar konfigurasi, temukan konfigurasi Logtail target dan klik Manage Logtail Configuration di kolom Actions.
Di halaman konfigurasi Logtail, klik Edit:
Di , aktifkan Allow File to Be Collected for Multiple Times.
Setelah konfigurasi selesai, klik Save.
Mengapa entri log terakhir dilaporkan setelah penundaan lama? Mengapa kadang terpotong?
Penyebab: Pemotongan log biasanya terjadi ketika file log kehilangan line feed di akhir, atau ketika log multiline, seperti stack exception, belum sepenuhnya ditulis. Karena agen tidak dapat menentukan apakah log telah berakhir, bagian akhir konten mungkin terpotong lebih awal atau dilaporkan dengan penundaan. Versi LoongCollector (Logtail) yang berbeda memiliki mekanisme penanganan yang berbeda:
Versi sebelum 1.8:
Jika baris terakhir log tidak memiliki line feed (carriage return), atau jika paragraf log multiline belum selesai, agen menunggu tulisan berikutnya untuk memicu output. Hal ini dapat menyebabkan entri log terakhir ditahan lama tanpa dikirim, hingga log baru ditulis.Versi 1.8 dan lebih baru:
Mekanisme refresh timeout diperkenalkan untuk mencegah log macet. Saat baris log yang tidak lengkap terdeteksi, sistem memulai timer. Setelah timeout, sistem secara otomatis mengirimkan konten saat ini, yang memastikan log akhirnya dikumpulkan.Timeout default: 60 detik (untuk memastikan kelengkapan dalam sebagian besar skenario)
Sesuaikan nilai ini sesuai kebutuhan, tetapi jangan atur ke 0, karena hal ini dapat menyebabkan pemotongan log atau kehilangan konten sebagian.
Solusi:
Perpanjang waktu tunggu untuk memastikan log lengkap ditulis sebelum dikumpulkan:
Masuk ke Konsol Simple Log Service dan masuk ke proyek target.
Di panel navigasi sebelah kiri, pilih
Logstores dan temukan logstore target.Klik ikon
di sebelah kiri namanya untuk memperluas logstore.Klik Logtail Configuration. Di daftar konfigurasi, temukan konfigurasi Logtail target dan klik Manage Logtail Configuration di kolom Actions.
Di halaman konfigurasi Logtail, klik Edit:
Di , tambahkan konfigurasi JSON berikut untuk menyesuaikan timeout:
{ "FlushTimeoutSecs": 1 }Nilai default: Ditentukan oleh parameter startup
default_reader_flush_timeout(biasanya beberapa detik).Unit: Detik.
Nilai yang disarankan: ≥1 detik. Jangan atur ke 0, karena hal ini dapat menyebabkan pemotongan log atau kehilangan konten sebagian.
Setelah konfigurasi selesai, klik Save.
Mengapa LoongCollector (Logtail) beralih dari titik akhir internal ke Internet selama operasi? Dapatkah beralih kembali secara otomatis?
Selama operasi, jika LoongCollector (Logtail) mendeteksi anomali komunikasi dengan titik akhir internal wilayah yang sama, seperti kegagalan jaringan atau timeout koneksi, sistem secara otomatis beralih ke nama domain publik untuk mengirim data. Hal ini memastikan kelangsungan dan keandalan pengumpulan log serta mencegah penumpukan atau kehilangan log.
LoongCollector: Secara otomatis beralih kembali ke jaringan internal setelah pulih.
Logtail: Tidak beralih kembali secara otomatis. Harus dimulai ulang secara manual untuk melanjutkan komunikasi jaringan internal.
Lampiran: Detail prosesor native
Di bagian Processor Configurations di halaman Logtail Configuration, tambahkan prosesor untuk menyusun log mentah. Untuk menambahkan plugin pemrosesan ke konfigurasi pengumpulan yang sudah ada, ikuti langkah-langkah berikut:
Di panel navigasi sebelah kiri, pilih
Logstores dan temukan logstore target.Klik ikon
di sebelah kiri namanya untuk memperluas logstore.Klik Logtail Configuration. Di daftar konfigurasi, temukan konfigurasi Logtail target dan klik Manage Logtail Configuration di kolom Actions.
Di halaman konfigurasi Logtail, klik Edit.
Bagian ini hanya memperkenalkan plugin pemrosesan yang umum digunakan yang mencakup skenario pemrosesan log umum. Untuk fitur lainnya, lihat Prosesor ekstensi.
Aturan menggabungkan plugin (untuk LoongCollector / Logtail 2.0 dan lebih baru):
Prosesor native dan ekstensi dapat digunakan secara independen atau digabungkan sesuai kebutuhan.
Utamakan prosesor native karena menawarkan kinerja lebih baik dan stabilitas lebih tinggi.
Saat fitur native tidak dapat memenuhi kebutuhan bisnis Anda, tambahkan prosesor ekstensi setelah prosesor native yang dikonfigurasi untuk pemrosesan tambahan.
Batasan urutan:
Semua plugin dieksekusi secara berurutan sesuai urutan konfigurasinya, yang membentuk rantai pemrosesan. Catatan: Semua prosesor native harus mendahului prosesor ekstensi apa pun. Setelah Anda menambahkan prosesor ekstensi, Anda tidak dapat menambahkan prosesor native lagi.
Parsing ekspresi reguler
Ekstrak field log menggunakan ekspresi reguler dan uraikan log menjadi pasangan kunci-nilai. Setiap field dapat dikueri dan dianalisis secara independen.
Contoh:
Log mentah tanpa pemrosesan apa pun | Menggunakan plugin parsing ekspresi reguler |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Regular Expression: Ekspresi yang digunakan untuk mencocokkan log. Hasilkan secara otomatis atau masukkan secara manual:
Generasi otomatis:
Klik Generate.
Di Log Sample, pilih konten log untuk diekstrak.
Klik Generate Regular Expression.

Masukan manual: Manually Enter Regular Expression berdasarkan format log.
Setelah konfigurasi, klik Validate untuk menguji apakah ekspresi reguler dapat mengurai konten log dengan benar.
Extracted Field: Nama field (Key) yang sesuai dengan konten log yang diekstrak (Value).
Untuk parameter lainnya, lihat deskripsi parameter konfigurasi umum di Skenario 2: Log terstruktur.
Parsing pemisah
Susun konten log menggunakan pemisah untuk menguraikannya menjadi beberapa pasangan kunci-nilai. Mendukung pemisah karakter tunggal maupun multi-karakter.
Contoh:
Log mentah tanpa pemrosesan apa pun | Field dipisahkan oleh karakter yang ditentukan |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Delimiter: Menentukan karakter yang digunakan untuk memisahkan konten log.
Contoh: Untuk file CSV, pilih Custom dan masukkan koma (,).
Quote: Jika nilai field berisi pemisah, Anda harus membungkus nilai field tersebut dalam tanda kutip untuk mencegah pemisahan yang salah.
Extracted Field: Tentukan nama field (Key) untuk setiap kolom sesuai urutan kemunculannya. Aturannya sebagai berikut:
Nama field hanya boleh berisi huruf, angka, dan garis bawah (_).
Harus dimulai dengan huruf atau garis bawah (_).
Panjang maksimum: 128 byte.
Untuk parameter lainnya, lihat deskripsi parameter konfigurasi umum di Skenario 2: Log terstruktur.
Parsing JSON standar
Susun log JSON bertipe Objek dengan menguraikannya menjadi pasangan kunci-nilai.
Contoh:
Log mentah tanpa pemrosesan apa pun | Ekstraksi otomatis pasangan kunci-nilai JSON standar |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Original Field: Field yang berisi log mentah untuk diurai. Nilai default adalah content.
Untuk parameter lainnya, lihat deskripsi parameter konfigurasi umum di Skenario 2: Log terstruktur.
Parsing JSON bersarang
Uraikan log JSON bersarang menjadi pasangan kunci-nilai dengan menentukan kedalaman ekspansi.
Contoh:
Log mentah tanpa pemrosesan apa pun | Kedalaman ekspansi: 0, menggunakan kedalaman ekspansi sebagai awalan | Kedalaman ekspansi: 1, menggunakan kedalaman ekspansi sebagai awalan |
| | |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Original Field: Menentukan nama field sumber untuk diekspansi, seperti
content.JSON Expansion Depth: Kedalaman ekspansi objek JSON, di mana 0 (default) menunjukkan ekspansi penuh, 1 menunjukkan ekspansi tingkat saat ini, dan seterusnya.
Character to Concatenate Expanded Keys: Pemisah untuk nama field saat objek JSON diekspansi. Nilai default adalah garis bawah (_).
Name Prefix of Expanded Keys: Awalan untuk nama field setelah ekspansi JSON.
Expand Array: Ekspansi array menjadi pasangan kunci-nilai dengan indeks.
Contoh:
{"k":["a","b"]}diekspansi menjadi{"k[0]":"a","k[1]":"b"}.Untuk mengganti nama field yang diekspansi (misalnya, dari prefix_s_key_k1 menjadi new_field_name), tambahkan rename fields plugin setelahnya untuk menyelesaikan pemetaan.
Untuk parameter lainnya, lihat deskripsi parameter konfigurasi umum di Skenario 2: Log terstruktur.
Parsing array JSON
Gunakan fungsi json_extract fungsi untuk mengekstrak objek JSON dari array JSON.
Contoh:
Log mentah tanpa pemrosesan apa pun | Ekstrak struktur array JSON |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, ubah Processing Mode ke SPL, konfigurasikan Pernyataan SPL, dan gunakan fungsi json_extract untuk mengekstrak objek JSON dari array JSON.
Contoh: Ekstrak elemen dari array JSON di field log content dan simpan hasilnya di field baru json1 dan json2.
* | extend json1 = json_extract(content, '$[0]'), json2 = json_extract(content, '$[1]')Parsing log Apache
Susun konten log menjadi beberapa pasangan kunci-nilai berdasarkan definisi dalam file konfigurasi log Apache.
Contoh:
Log mentah tanpa pemrosesan apa pun | Parsing format log umum Apache |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Log Format adalah combined.
APACHE LogFormat Configuration diisi otomatis berdasarkan Log Format.
PentingPastikan untuk memverifikasi konten yang diisi otomatis untuk memastikan persis sama dengan LogFormat yang didefinisikan dalam file konfigurasi server Apache Anda (biasanya terletak di /etc/apache2/apache2.conf).
Untuk parameter lainnya, lihat deskripsi parameter konfigurasi umum di Skenario 2: Log terstruktur.
Parsing log IIS
Susun konten log menjadi beberapa pasangan kunci-nilai berdasarkan definisi format log IIS.
Contoh perbandingan:
Log mentah | Adaptasi untuk format khusus server Microsoft IIS |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Log Format: Pilih format log untuk server IIS Anda.
IIS: Format file log untuk Microsoft Internet Information Services.
NCSA: Common Log Format.
W3C mengacu pada W3C Extended Log File Format.
IIS Configuration Fields: Saat Anda memilih IIS atau NCSA, SLS menggunakan field konfigurasi IIS default. Saat Anda memilih W3C, Anda harus mengatur field ke nilai parameter
logExtFileFlagsdalam file konfigurasi IIS Anda. Misalnya:logExtFileFlags="Date, Time, ClientIP, UserName, SiteName, ComputerName, ServerIP, Method, UriStem, UriQuery, HttpStatus, Win32Status, BytesSent, BytesRecv, TimeTaken, ServerPort, UserAgent, Cookie, Referer, ProtocolVersion, Host, HttpSubStatus"Untuk parameter lainnya, lihat deskripsi parameter konfigurasi umum di Skenario 2: Log terstruktur.
Penyembunyian data
Sembunyikan data sensitif dalam log.
Contoh:
Log mentah tanpa pemrosesan apa pun | Hasil penyembunyian |
| |
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Original Field: Field yang berisi konten log sebelum parsing.
Data Masking Method:
const: Mengganti konten sensitif dengan string konstan.
md5: Mengganti konten sensitif dengan hash MD5-nya.
Replacement String: Jika Data Masking Method diatur ke const, masukkan string untuk mengganti konten sensitif.
Content Expression that Precedes Replaced Content: Ekspresi yang digunakan untuk menemukan konten sensitif, yang dikonfigurasi menggunakan sintaks RE2.
Content Expression to Match Replaced Content: Ekspresi reguler yang digunakan untuk mencocokkan konten sensitif. Ekspresi harus ditulis dalam sintaks RE2.
Parsing waktu
Uraikan field waktu dalam log dan atur hasil parsing sebagai field __time__ log.
Contoh:
Log mentah tanpa pemrosesan apa pun | Parsing waktu |
|
|
Prosedur: Di bagian Processor Configurations di halaman Logtail Configuration, klik Add Processor dan pilih :
Original Field: Field yang berisi konten log sebelum parsing.
Time Format: Atur format waktu yang sesuai dengan timestamp dalam log.
Time Zone: Pilih zona waktu untuk field waktu log. Secara default, ini adalah zona waktu lingkungan tempat proses LoongCollector (Logtail) berjalan.
Lampiran: Referensi kebijakan izin
Login akun Alibaba Cloud: Secara default, akun Alibaba Cloud memiliki izin penuh dan dapat melakukan semua operasi.
Login pengguna RAM: Akun Alibaba Cloud harus memberikan kebijakan akses yang diperlukan kepada pengguna RAM.
Kebijakan izin kustom (kontrol detail halus)
Jika kebijakan sistem tidak memenuhi prinsip hak istimewa minimal, buat kebijakan kustom untuk otorisasi detail halus. Berikut adalah contoh kebijakan izin yang mencakup izin-izin ini:
Lihat proyek: Lihat daftar proyek dan detail proyek tertentu.
Kelola logstore: Buat, modifikasi, atau hapus logstore di bawah proyek.
Kelola konfigurasi pengumpulan: Buat, hapus, dan modifikasi konfigurasi pengumpulan.
Lihat log: Kueri dan analisis data di logstore tertentu di bawah proyek tertentu.
Ganti${regionName},${uid},${projectName}, dan${logstoreName}dengan nama wilayah, ID akun Alibaba Cloud, proyek target, dan logstore yang sebenarnya.
Izin | Action | Resource |
Proyek Hanya Baca |
|
|
Ambil proyek tertentu |
|
|
Kelola logstore |
|
|
Kelola impor data LoongCollector (Logtail) |
|
|
Kueri pencarian tersimpan |
|
|
Kueri dasbor |
|
|
Kueri log di logstore tertentu |
|
|
Izin untuk mengoperasikan ECS |
|
|
Izin untuk mengoperasikan OOS (Opsional) Hanya diperlukan saat LoongCollector (Logtail) diinstal secara otomatis melalui OOS dalam akun dan wilayah yang sama dengan SLS dan instance ECS. |
|
|
Kebijakan izin sistem
Jika Anda menggunakan kebijakan yang ditentukan sistem, kami menyarankan Anda menambahkan izin berikut:
AliyunLogFullAccess: Izin untuk mengelola SLS.AliyunECSFullAccess: Izin untuk mengelola ECS.(Opsional)
AliyunOOSFullAccess: Diperlukan saat LoongCollector (Logtail) diinstal dengan satu klik menggunakan OOS.






