All Products
Search
Document Center

Security Center:prosedur umum impor data

Last Updated:Mar 04, 2026

Fitur Agentic SOC memungkinkan Anda mengumpulkan log secara terpusat dari berbagai saluran, seperti Kafka, Amazon S3, dan Alibaba Cloud Object Storage Service (OSS), sehingga membantu membangun pusat analisis log dan operasi keamanan terpadu untuk manajemen keamanan yang konsisten di seluruh lingkungan cloud.

Alur Kerja

image

Memilih solusi

Sebelum memulai, pilih saluran impor log yang paling sesuai berdasarkan jenis sumber data, biaya, dan kebutuhan data waktu nyata Anda.

Saluran impor

Kasus Penggunaan

Fitur

Kafka

  • Kasus penggunaan yang memerlukan analisis aliran log waktu nyata atau hampir waktu nyata.

  • Platform log self-hosted yang mengekspor data melalui Kafka.

  • Menyediakan ketepatan waktu data tinggi dan latensi rendah.

  • Konfigurasi dan pemeliharaan relatif kompleks.

S3 (atau penyimpanan objek kompatibel S3)

  • Kasus penggunaan di mana ketepatan waktu tidak kritis (latensi tingkat menit dapat diterima).

  • Sumber data mendukung protokol S3.

  • Memiliki arsitektur sederhana, konfigurasi mudah, dan biaya terkelola.

  • Menawarkan ketepatan waktu lebih rendah dibanding Kafka, dengan latensi tingkat menit.

OSS (Alibaba Cloud Object Storage Service)

Data log sudah disimpan di Alibaba Cloud OSS.

Sangat terintegrasi dengan ekosistem Alibaba Cloud, sehingga menyederhanakan konfigurasi.

Kirimkan log ke saluran perantara

Fitur impor Agentic SOC mengambil data dari saluran seperti Kafka, S3, atau OSS. Oleh karena itu, Anda harus terlebih dahulu mengirimkan data log sumber ke saluran perantara yang dipilih.

  • Contoh metode pengiriman:

    • OSS: Simpan data log di bucket Alibaba Cloud OSS. Untuk informasi selengkapnya, lihat OSS Quick Start.

    • Huawei Cloud: Gunakan fitur log dump dari Huawei Cloud Log Tank Service (LTS) untuk menyimpan data di Kafka atau Object Storage Service (OBS). Untuk informasi selengkapnya, lihat Impor data log Huawei Cloud.

    • Tencent Cloud: Gunakan fitur log dump dari Tencent Cloud Log Service (CLS) untuk menyimpan data di Kafka atau Cloud Object Storage (COS). Untuk informasi selengkapnya, lihat Impor data log Tencent Cloud.

    • Azure: Anda dapat menggunakan kompatibilitas Azure Event Hubs dengan protokol Apache Kafka untuk memperlakukan Event Hub sebagai layanan Kafka yang dapat diambil datanya oleh Agentic SOC. Untuk informasi selengkapnya, lihat Impor data log Azure.

  • Simpan informasi akses: Simpan secara aman kredensial akses Anda, seperti pasangan AccessKey dan password, serta informasi titik akhir seperti endpoint dan nama bucket.

Berikan izin Security Center untuk mengakses layanan pihak ketiga

Jika Anda menggunakan saluran data pihak ketiga, Anda harus memberikan izin Agentic SOC untuk mengakses resource tersebut agar dapat membaca data log dari saluran tersebut.

Kafka dan S3 (Object Storage Service)

  1. Masuk ke Konsol Security Center dan navigasikan ke Pengaturan Sistem > Pengaturan Fitur. Di pojok kiri atas halaman, pilih wilayah tempat aset Anda berada: Chinese Mainland atau Outside Chinese Mainland.

  2. Pada tab Multi-cloud Configuration Management, pilih Multi-cloud Assets, lalu klik Grant Permission. Pada panel yang muncul, pilih IDC dari daftar drop-down dan konfigurasikan parameter berikut:

    Catatan
    • Untuk nilai spesifik item konfigurasi, seperti endpoint, lihat dokumentasi resmi masing-masing penyedia cloud.

    • Pada versi saat ini, ketika Anda mengonfigurasi layanan penyimpanan Kafka atau kompatibel S3 generik, seperti AWS S3, Tencent Cloud COS, atau Huawei Cloud OBS, pilih IDC. Pemilihan ini hanya untuk klasifikasi UI dan tidak memengaruhi fungsionalitas fitur.

    Kafka

    • Service Provider: Pilih Apache.

    • Service: Pilih Kafka.

    • Endpoint: Titik akhir publik untuk Kafka.

      Catatan

      Endpoint Event Hub adalah <YOUR-NAMESPACE>.servicebus.windows.net:9093.

    • Username/Password: Username dan password untuk Kafka.

      Catatan

      Username Kafka default untuk Event Hub adalah $ConnectionString, dan password-nya adalah primary connection string.

    • Communication Protocol: `security.protocol` dalam konfigurasi Kafka. Nilai yang didukung adalah plaintext (default), sasl_plaintext, sasl_ssl, dan ssl.

    • SASL Authentication Mechanism: `sasl.mechanism` dalam konfigurasi Kafka. Nilai yang didukung adalah plain, SCRAM-SHA-256, dan SCRAM-SHA-512.

    S3

    • Service Provider: Anda dapat memilih AWS-S3.

    • Service: Pilih S3.

    • Endpoint: Titik akhir untuk layanan penyimpanan objek.

    • Access Key Id/Secret Access Key: Masukkan pasangan AccessKey yang digunakan untuk mengakses S3.

  3. Konfigurasikan kebijakan sinkronisasi

    AK Service Status Check: Menentukan interval pemeriksaan otomatis oleh Security Center terhadap validitas pasangan AccessKey Anda. Anda dapat memilih Disable untuk menonaktifkan pemeriksaan ini.

OSS

  1. Buka halaman Cloud Resource Access Authorization dan klik Confirm Authorization untuk memberikan izin role sistem mengakses resource OSS.

  2. Jika Anda adalah pengguna Resource Access Management (RAM), Anda juga harus mengonfigurasi izin berikut. Untuk informasi selengkapnya, lihat Buat kebijakan kustom dan Kelola izin pengguna RAM.

    {
      "Statement": [
        {
          "Effect": "Allow",
          "Action": "ram:PassRole",
          "Resource": "acs:ram:*:*:role/aliyunlogimportossrole"
        },
        {
          "Effect": "Allow",
          "Action": "oss:GetBucketWebsite",
          "Resource": "*"
        },
        {
          "Effect": "Allow",
          "Action": "oss:ListBuckets",
          "Resource": "*"
        }
      ],
      "Version": "1"
    }    

Buat tugas impor data

  1. Buat sumber data

    Buat sumber data Agentic SOC khusus untuk data log Anda. Anda dapat melewati langkah ini jika sumber data sudah ada.

    1. Masuk ke Konsol Security Center dan navigasikan ke Agentic SOC > Integration Center. Di pojok kiri atas halaman, pilih wilayah tempat aset Anda berada: Chinese Mainland atau Outside Chinese Mainland.

    2. Pada tab Data Source, buat sumber data untuk menerima log. Untuk informasi selengkapnya, lihat Buat sumber data untuk Simple Log Service (SLS).

      • Source Data Source Type: Pilih Agentic SOC Dedicated Collection Channel (Direkomendasikan) atau User Log Service.

      • Add Instances: Kami menyarankan Anda membuat Logstore baru untuk mengisolasi data.

  2. Pada tab Data Import, klik Add Data. Pada panel yang muncul, konfigurasikan pengaturan berikut berdasarkan Data Source Type:

    Catatan

    Untuk nilai spesifik item konfigurasi, lihat dokumentasi resmi masing-masing penyedia cloud.

    Kafka

    • Endpoint: Pilih titik akhir publik Kafka yang Anda masukkan saat memberikan izin Security Center mengakses layanan pihak ketiga.

    • Topics: Pilih topik Kafka tempat log disimpan.

      Catatan

      Nama Event Hub adalah topik Kafka.

    • Value Type: Format penyimpanan log.

      Format penyimpanan pihak ketiga

      Value Type

      Format JSON

      json

      Format log mentah

      text

    S3

    • Endpoint: Titik akhir untuk bucket S3.

    • S3 Bucket: ID bucket S3.

    • File Path Prefix Filter: Memfilter objek S3 berdasarkan awalan path file untuk menemukan objek spesifik yang ingin Anda impor. Misalnya, jika objek S3 yang ingin Anda impor disimpan di direktori csv/, atur parameter ini menjadi csv/.

      Peringatan

      Anda harus mengatur parameter ini. Jika Anda membiarkannya kosong, sistem akan melakukan traversal seluruh bucket S3. Jika bucket berisi banyak file, traversal penuh dapat sangat menurunkan performa impor.

    • File Path Regex Filter: Memfilter file menggunakan ekspresi reguler untuk menemukan file spesifik yang ingin Anda impor. Secara default, parameter ini kosong, artinya tidak ada pemfilteran. Misalnya, jika file S3 berada di testdata/csv/bill.csv, Anda dapat mengatur ekspresi reguler menjadi (testdata/csv/)(.*).

      Catatan
      • Kami menyarankan Anda mengonfigurasi parameter ini bersama dengan File Path Prefix Filter untuk meningkatkan efisiensi. Parameter ini dan File Path Prefix Filter dievaluasi dengan logika AND.

      • Untuk informasi selengkapnya tentang cara men-debug ekspresi reguler, lihat Cara men-debug ekspresi reguler.

    • Data Format: Format penguraian file. Opsi dijelaskan di bawah ini.

      • CSV: File teks yang menggunakan pemisah untuk membatasi data. Anda dapat menentukan baris pertama file sebagai nama field atau menentukan nama field secara manual. Setiap baris, kecuali baris nama field, diurai sebagai nilai field log.

      • JSON: Membaca file S3 baris demi baris dan mengurai setiap baris sebagai objek JSON. Setelah diurai, field dalam objek JSON sesuai dengan field log.

      • Text: Mengurai setiap baris dalam file S3 sebagai satu entri log.

      • Multi-line Text: Mode multi-baris yang mendukung penguraian log dengan menentukan ekspresi reguler untuk baris pertama atau terakhir.

      Jika Anda memilih CSV atau Multi-line Text, Anda harus mengatur parameter tambahan yang dijelaskan di bawah ini.

      CSV

      Parameter

      Deskripsi

      Separator

      Atur pemisah untuk log. Nilai default adalah koma (,).

      Quote character

      Karakter quote yang digunakan dalam string CSV.

      Escape Character

      Konfigurasikan karakter escape untuk log. Nilai default adalah backslash (\).

      Max Line Span

      Saat entri log mencakup beberapa baris, tentukan jumlah maksimum baris. Nilai default adalah 1.

      First Row as Header

      Jika Anda mengaktifkan sakelar ini, baris pertama file CSV digunakan sebagai nama field. Misalnya, baris pertama pada gambar berikut diekstraksi sebagai nama field log.首行

      Skip rows

      Tentukan jumlah baris log yang dilewati. Misalnya, jika Anda mengatur nilainya menjadi 1, pengumpulan log dimulai dari baris kedua file CSV.

      Multi-line Text

      Parameter

      Deskripsi

      Regex Match Position

      Atur posisi pencocokan ekspresi reguler, seperti dijelaskan di bawah ini:

      • Prefix Regex: Menggunakan ekspresi reguler untuk mencocokkan baris pertama entri log. Baris berikutnya yang tidak cocok dengan ekspresi dianggap bagian dari entri log tersebut hingga jumlah maksimum baris tercapai.

      • Suffix Regex: Menggunakan ekspresi reguler untuk mencocokkan akhir baris entri log. Bagian yang tidak cocok dianggap bagian dari entri log berikutnya hingga jumlah maksimum baris tercapai.

      Regex

      Atur ekspresi reguler yang benar berdasarkan konten log. Untuk informasi selengkapnya, lihat Cara men-debug ekspresi reguler.

      Max Lines

      Jumlah maksimum baris untuk satu entri log.

    • Encoding Format: Format encoding file S3 yang akan diimpor. Format yang didukung adalah GBK dan UTF-8.

    • Compression format: Sistem secara otomatis mendeteksi format kompresi berdasarkan pengaturan kompresi data S3.

    • Modified Time: Mengimpor semua file yang dimodifikasi mulai 30 menit sebelum tugas dimulai, termasuk file yang baru ditambahkan.

    • New File Check Cycle: Interval tugas impor memindai file baru secara berkala. Tugas tersebut secara otomatis memindai dan mengimpor file baru pada interval yang ditentukan.

    OSS

    Penting

    Saat ini, Anda hanya dapat mengimpor file OSS yang ukurannya maksimal 5 GB. Ukuran file terkompresi dihitung berdasarkan ukuran setelah dikompresi.

    • OSS Region: Wilayah tempat data OSS disimpan.

      Catatan

      Akses lintas wilayah menimbulkan biaya transfer data. Biaya ini dikenakan oleh layanan OSS. Untuk informasi selengkapnya, lihat Detail penagihan.

    • Bucket: Bucket OSS yang berisi file yang akan diimpor.

    • File Path Prefix Filter: Memfilter objek OSS berdasarkan awalan path file untuk menemukan objek spesifik yang ingin Anda impor. Misalnya, jika file yang ingin Anda impor disimpan di direktori csv/, atur parameter ini menjadi csv/.

      Peringatan

      Anda harus mengatur parameter ini. Jika Anda membiarkannya kosong, sistem akan melakukan traversal seluruh bucket OSS. Jika bucket berisi banyak file, traversal penuh dapat menurunkan performa impor dan menimbulkan biaya yang tidak perlu.

    • File Path Regex Filter: Menentukan ekspresi reguler untuk memfilter file dan menemukan file spesifik yang ingin Anda impor. Secara default, parameter ini kosong, artinya tidak ada pemfilteran. Misalnya, jika file OSS berada di testdata/csv/bill.csv, Anda dapat mengatur ekspresi reguler menjadi (testdata/csv/)(.*).

      Catatan
      • Kami menyarankan Anda mengonfigurasi parameter ini bersama dengan File Path Prefix Filter untuk meningkatkan efisiensi. Parameter ini dan File Path Prefix Filter dievaluasi menggunakan logika AND.

      • Untuk informasi selengkapnya tentang cara men-debug ekspresi reguler, lihat Cara men-debug ekspresi reguler.

    • Modified Time: Menetapkan waktu mulai 30 menit sebelum tugas diinisiasi. Semua file yang dimodifikasi setelah waktu ini, termasuk file yang baru ditambahkan, akan diimpor.

    • Data Format: Format yang digunakan untuk mengurai file. Opsi dijelaskan di bawah ini.

      • CSV: File teks yang menggunakan pemisah untuk membatasi data. Anda dapat menentukan baris pertama file sebagai nama field atau menentukan nama field secara manual. Setiap baris, kecuali baris nama field, diurai sebagai nilai field log.

      • Single-Line JSON: Membaca file OSS baris demi baris dan mengurai setiap baris sebagai objek JSON. Field dalam objek JSON adalah field log.

      • Text: Mengurai setiap baris dalam file OSS sebagai satu entri log.

      • Multi-line Text: Mode multi-baris yang mendukung penguraian log berdasarkan ekspresi reguler yang ditentukan untuk baris pertama atau terakhir.

      • ORC: Format file ORC. Tidak diperlukan konfigurasi. File secara otomatis diurai ke dalam format log.

      • Parquet: Format file Parquet. Tidak diperlukan konfigurasi. File secara otomatis diurai ke dalam format log.

      • OSS Access Log: Format untuk log akses Alibaba Cloud OSS. Untuk informasi selengkapnya, lihat Penyimpanan log.

      • Download Alibaba Cloud CDN logs: Format log unduhan untuk Alibaba Cloud CDN. Untuk informasi selengkapnya, lihat Quick Start.

      Jika Anda memilih CSV atau Multi-line Text, Anda perlu mengatur parameter tambahan seperti dijelaskan di bawah ini.

      CSV

      Parameter

      Deskripsi

      Separator

      Atur pemisah untuk log. Nilai default adalah koma (,).

      Quote character

      Karakter quote yang digunakan dalam string CSV.

      Escape Character

      Konfigurasikan karakter escape untuk log. Nilai default adalah backslash (\).

      Max Line Span

      Saat entri log mencakup beberapa baris, tentukan jumlah maksimum baris. Nilai default adalah 1.

      First Row as Header

      Jika Anda mengaktifkan sakelar ini, baris pertama file CSV digunakan sebagai nama field. Misalnya, baris pertama pada gambar berikut diekstraksi sebagai nama field log.首行

      Skip rows

      Tentukan jumlah baris log yang dilewati. Misalnya, jika Anda mengatur nilainya menjadi 1, pengumpulan log dimulai dari baris kedua file CSV.

      Multi-line Text

      Parameter

      Deskripsi

      Regex Match Position

      Atur posisi pencocokan ekspresi reguler, seperti dijelaskan di bawah ini:

      • Prefix Regex: Menggunakan ekspresi reguler untuk mencocokkan baris pertama entri log. Baris berikutnya yang tidak cocok dengan ekspresi dianggap bagian dari entri log tersebut hingga jumlah maksimum baris tercapai.

      • Suffix Regex: Menggunakan ekspresi reguler untuk mencocokkan akhir baris entri log. Bagian yang tidak cocok dianggap bagian dari entri log berikutnya hingga jumlah maksimum baris tercapai.

      Regex

      Atur ekspresi reguler yang benar berdasarkan konten log. Untuk informasi selengkapnya, lihat Cara men-debug ekspresi reguler.

      Max Lines

      Jumlah maksimum baris untuk satu entri log.

    • Encoding Format: Format encoding file OSS yang akan diimpor. Format yang didukung adalah GBK dan UTF-8.

    • Compression format: Sistem secara otomatis mendeteksi format kompresi berdasarkan format kompresi data OSS yang dikonfigurasi.

    • New File Check Cycle: Interval tugas impor memindai file baru secara berkala. Tugas tersebut kemudian secara otomatis memindai dan mengimpor file yang baru ditambahkan.

  3. Konfigurasikan sumber data tujuan

    • Data Source Name: Pilih sumber data yang Anda buat pada Langkah 1.

    • Target Logstore: Logstore yang Anda atur pada Langkah 1.

  4. Klik OK untuk menyimpan konfigurasi. Security Center kemudian secara otomatis menarik log dari saluran impor data.

Analisis data yang diimpor

Setelah data berhasil diingest, Anda harus mengonfigurasi aturan parsing dan deteksi agar Security Center dapat menganalisis log tersebut.

  1. Buat Kebijakan Akses Baru

    Untuk informasi selengkapnya, lihat Integrasi produk. Buat kebijakan integrasi baru dan konfigurasikan parameter berikut:

    • Data Source: Pilih sumber data tujuan yang Anda konfigurasi dalam tugas impor data.

    • Standardized Rule: Agentic SOC menyediakan aturan standar bawaan untuk beberapa produk cloud yang dapat Anda gunakan langsung.

    • Standardization Method: Saat mengonversi log akses menjadi log alert, hanya metode Real-time Consumption yang didukung.

  2. Konfigurasikan aturan deteksi ancaman

    Berdasarkan kebutuhan keamanan Anda, Anda harus mengaktifkan atau membuat aturan deteksi log dalam manajemen aturan untuk menganalisis log, menghasilkan alert, dan membuat event keamanan. Untuk informasi selengkapnya, lihat Aturan Deteksi.

Biaya dan pengeluaran

  • Penagihan Agentic SOC dan SLS: Pihak yang bertanggung jawab atas biaya tergantung pada metode penyimpanan data yang Anda pilih.

    Catatan

    Untuk petunjuk penagihan Agentic SOC, lihat Langganan Agentic SOC dan Agentic SOC bayar sesuai penggunaan.

    Untuk informasi selengkapnya tentang penagihan Simple Log Service (SLS), lihat Ikhtisar penagihan.

    Jenis Sumber Data

    Agentic SOC Billable Items

    Item yang dapat ditagih SLS

    Instruksi khusus

    Agentic SOC Dedicated Collection Channel

    • Biaya ingest log.

    • Biaya penyimpanan dan penulisan log.

    Catatan

    Item di atas mengonsumsi Log Ingestion Traffic.

    Biaya selain penyimpanan dan penulisan log (seperti Lalu lintas internet).

    Agentic SOC membuat dan mengelola resource SLS. Oleh karena itu, Agentic SOC ditagih untuk biaya penyimpanan dan penulisan Logstore.

    User Log Service

    Biaya ingest log dikenakan dengan mengonsumsi Log Ingestion Traffic.

    Semua biaya terkait log (termasuk penyimpanan dan penulisan log, biaya transfer data, dll.).

    Semua resource log dikelola oleh Simple Log Service (SLS). Oleh karena itu, SLS ditagih untuk semua biaya terkait log.

  • Biaya terkait OSS: Saat Anda mengimpor data dari OSS, OSS mengenakan biaya untuk traffic dan permintaan. Untuk informasi harga item yang dapat ditagih ini, lihat Harga OSS.

    • Rumus perhitungan biaya

      image..png

      Field

      Deskripsi

      N

      Jumlah file yang diimpor per hari.

      T

      Total volume data yang diimpor per hari, dalam GB.

      p_read

      Biaya traffic per GB data.

      • Saat Anda mengimpor data dalam wilayah yang sama, lalu lintas keluar melalui jaringan internal dihasilkan dari OSS. Lalu lintas ini gratis.

      • Saat Anda mengimpor data lintas wilayah, lalu lintas keluar melalui Internet dihasilkan dari OSS.

      p_put

      Biaya per 10.000 permintaan PUT.

      Simple Log Service menggunakan operasi API ListObjects untuk mendapatkan daftar file di bucket tujuan. OSS mengenakan biaya untuk operasi ini sebagai permintaan PUT. Operasi ini mengembalikan maksimal 1.000 entri data sekaligus. Oleh karena itu, jika Anda memiliki 1.000.000 file baru, Anda perlu melakukan 1.000.000/1.000 = 1.000 permintaan.

      p_get

      Biaya per 10.000 permintaan GET.

      M

      Interval pemeriksaan file baru, dalam menit.

      Anda dapat mengatur parameter Check for New Files Interval saat membuat konfigurasi impor data.

    • Contoh penagihan

  • Biaya pihak ketiga: