全部产品
Search
文档中心

Security Center:Impor data log Azure

更新时间:Jan 21, 2026

Fitur Agentic SOC dari Security Center menggunakan protokol Kafka standar untuk mengonsumsi log dari Azure Event Hubs, memungkinkan manajemen keamanan terpadu dan deteksi ancaman di lingkungan multi-cloud.

Cara kerja

Solusi ini memanfaatkan kompatibilitas antara Azure Event Hubs dan protokol Apache Kafka, sehingga Event Hub dapat berfungsi sebagai layanan Kafka. Security Center bertindak sebagai klien Kafka yang menggunakan endpoint, topic, dan kredensial tertentu untuk mengambil data log dari Event Hub. Data yang diambil kemudian digunakan untuk normalisasi terpadu, parsing, dan deteksi ancaman. Proses konfigurasinya adalah sebagai berikut:

image

Persiapkan Event Hub di Azure

Catatan

Untuk informasi lebih lanjut, lihat dokumen resmi Azure Buat event hub menggunakan portal Azure.

Langkah 1: Buat resource group

  1. Masuk ke Azure portal.

  2. Pada panel navigasi kiri, pilih Resource groups, lalu klik Add.image.png

  3. Pada halaman Create a resource group, tentukan konfigurasi berikut, lalu klik Review + create.

    • Subscription: Pilih langganan Azure yang akan berisi resource group tersebut.

    • Resource group name: Nama unik untuk kelompok sumber daya.

    • Region: Pilih region tempat resource group berada.

  4. Setelah mengonfirmasi informasi, klik Add.

Langkah 2: Buat namespace Event Hubs

  1. Pada panel navigasi kiri, klik All services. Di area layanan Analytics, klik Event Hubs.

    image.png

  2. Pada halaman Event Hubs, klik Create dan konfigurasikan parameter berikut.

    • Subscription: Pilih nama Subscription yang Anda tentukan di Langkah 1.

    • Resource group: Pilih Resource group yang dibuat di Langkah 1.

    • Namespace name: Masukkan nama untuk namespace. Endpoint yang sesuai ditampilkan di bawah kotak teks.

      Penting

      Nama namespace menentukan endpoint untuk broker Kafka.

      image

    • Region: Pilih region tempat Resource group yang Anda buat di Langkah 1 berada.

    • Pricing tier: Pilih tier harga berdasarkan kebutuhan bisnis Anda. Nilai default adalah Basic.

      Catatan

      Untuk informasi lebih lanjut tentang perbedaan antar tier, lihat Quotas and limits, Event Hubs Premium, dan Event Hubs Dedicated.

    • Throughput units / Processing units (tier Premium): Pertahankan konfigurasi default.

      Catatan

      Untuk informasi lebih lanjut tentang throughput units atau processing units, lihat Scalability of Event Hubs.

    • Enable Auto-inflate: Anda dapat mengaktifkan fitur ini berdasarkan kebutuhan bisnis Anda.

  3. Masukkan pengaturan konfigurasi dan klik Review + create di bagian bawah halaman.

  4. Setelah mengonfirmasi konfigurasi, klik Create dan tunggu hingga penerapan selesai.

  5. Pada halaman Your deployment is complete, klik Go to resource untuk melihat halaman detail namespace.

    Catatan

    Anda juga dapat membuka halaman detail namespace dari halaman utama Event Hubs dengan mengklik nama namespace dalam daftar.

Langkah 3: Buat event hub

  1. Pada halaman detail namespace yang dibuat di Langkah 2, klik + Event Hub.

  2. Pada halaman pembuatan, masukkan informasi berikut dan klik Review + create.

    • Name: Masukkan nama untuk Event Hub.

      Penting

      Nama Event Hub bersesuaian dengan topic saat Anda mengonfigurasi Kafka. Gunakan nama yang deskriptif dan mudah dipahami.

    • Konfigurasi lainnya: Pertahankan pengaturan default.

  3. Pada halaman konfirmasi, klik Create. Tunggu hingga tugas selesai.

  4. Kembali ke halaman utama namespace. Data baru muncul di bagian Event Hubs.

Langkah 4: Dapatkan primary connection string

  1. Pada halaman namespace, di panel navigasi kiri, di bawah Settings, klik Shared access policies.

  2. Klik kebijakan utama, RootManageSharedAccessKey. Di panel detail kebijakan, salin Connection string-primary key.

    Penting

    Connection string-primary key merupakan kredensial (password) untuk impor Kafka.

image.png

Langkah 5: Tulis data ke event hub

Ikuti petunjuk dalam dokumentasi resmi Azure untuk menulis data yang ingin Anda analisis ke event hub yang Anda buat di Langkah 3. Anda dapat merujuk ke dokumen berikut:

Konfigurasikan impor data di Security Center

Langkah 1: Berikan otorisasi kepada Security Center untuk mengakses Event Hub

  1. Buka Security Center console > Agentic SOC > Integration Center. Di pojok kiri atas halaman, pilih region tempat aset Anda berada: Chinese Mainland atau Outside Chinese Mainland.

  2. Pada tab Multi-cloud Configuration Management, klik Multi-cloud Assets. Lalu, klik Grant Permission dan pilih IDC dari daftar drop-down. Pada panel yang muncul, konfigurasikan parameter berikut:

    • Service Provider: Pilih Apache.

    • Connection Type: Pilih Kafka.

    • Endpoint: <YOUR-NAMESPACE>.servicebus.windows.net:9093.

      Catatan

      Ganti <YOUR-NAMESPACE> dengan namespace name Event Hubs.

    • Username: Nilai ini tetap $ConnectionString dan tidak dapat diubah.

    • Password: primary connection string dari Event Hub.

    • Communication Protocol: sasl_ssl.

    • SASL Authentication Mechanism: plain.

  3. Konfigurasikan kebijakan sinkronisasi

    AK Service Status Check: Parameter ini tidak berlaku. Anda dapat melewati langkah ini.

Langkah 2: Buat tugas impor data

  1. Buat sumber data

    Buat sumber data untuk data log Azure. Jika sudah membuatnya, lewati langkah ini.

    1. Buka Security Center console > Agentic SOC > Integration Center. Di pojok kiri atas, pilih region tempat aset Anda berada: Chinese Mainland atau Outside Chinese Mainland.

    2. Pada tab Data Source, buat sumber data untuk menerima log. Untuk informasi lebih lanjut, lihat Buat sumber data: Log tidak terhubung ke Simple Log Service (SLS).

      • Source Data Source Type: Anda dapat memilih Agentic SOC Dedicated Collection Channel (Direkomendasikan) atau User Log Service.

      • Add Instances: Kami menyarankan Anda membuat Logstore baru untuk mengisolasi data.

  2. Pada tab Data Import, klik Add Data. Pada panel yang muncul, konfigurasikan parameter berikut:

    • Data Source Type: Kafka.

    • Endpoint: <YOUR-NAMESPACE>.servicebus.windows.net:9093.

    • Topics: Nama Event Hub yang Anda tetapkan saat membuat event hub.

    • Value Type: json.

  3. Konfigurasikan sumber data tujuan

    • Data Source Name: Pilih sumber data yang Anda buat pada langkah Create a data source di bagian ini.

    • Destination Logstore: Pilih Logstore yang Anda tetapkan pada langkah Create a data source di bagian ini.

  4. Klik OK untuk menyimpan konfigurasi. Setelah impor dikonfigurasi, Security Center secara otomatis mengambil log dari Azure Event Hubs.

Analisis data yang diimpor

Setelah data berhasil dikonsumsi, Anda harus mengonfigurasi aturan parsing dan deteksi agar Security Center dapat menganalisis log tersebut.

  1. Buat kebijakan akses baru

    Untuk informasi lebih lanjut, lihat Integrasi produk. Buat kebijakan akses baru dengan konfigurasi berikut:

    • Data Source: Pilih Destination Data Source yang dikonfigurasi dalam tugas impor data.

    • Standardized Rule: Agentic SOC menyediakan aturan standardisasi bawaan untuk beberapa produk cloud yang dapat Anda gunakan langsung.

    • Standardization Method: Saat log masuk distandardisasi menjadi log alert, hanya metode standardisasi Real-time Consumption yang didukung.

  2. Konfigurasikan aturan deteksi ancaman

    Berdasarkan kebutuhan keamanan Anda, aktifkan atau buat aturan deteksi log di manajemen aturan untuk menganalisis log, menghasilkan alert, dan membuat event keamanan. Untuk informasi lebih lanjut, lihat Manajemen aturan.

image

Biaya dan pengeluaran

Solusi ini melibatkan biaya untuk layanan berikut. Sebelum melanjutkan, tinjau dokumentasi penagihan untuk setiap produk guna memperkirakan biaya Anda.

  • Sisi Azure: Harga Event Hubs.

  • Sisi Alibaba Cloud: Biaya tergantung pada metode penyimpanan data yang Anda pilih.

    Catatan

    Untuk informasi tentang penagihan Agentic SOC, lihat Detail penagihan dan Penagihan pay-as-you-go untuk Threat Analysis and Response.

    Untuk informasi tentang penagihan Simple Log Service (SLS), lihat Ikhtisar penagihan SLS.

    Jenis sumber data

    Item yang dapat ditagih Agentic SOC

    Item yang dapat ditagih SLS

    Catatan

    Agentic SOC Dedicated Collection Channel

    • Biaya ingestion log.

    • Biaya penyimpanan dan penulisan log.

    Catatan

    Kedua item tersebut mengonsumsi Log Ingestion Traffic.

    Biaya untuk item selain penyimpanan dan penulisan log (seperti traffic jaringan publik).

    Agentic SOC membuat dan mengelola resource SLS. Oleh karena itu, biaya penyimpanan dan penulisan Logstore ditagih melalui Agentic SOC.

    User Log Service

    Biaya ingestion log, yang mengonsumsi Log Ingestion Traffic.

    Semua biaya terkait log (termasuk penyimpanan, penulisan, traffic jaringan publik, dll.).

    Semua resource log dikelola oleh Simple Log Service (SLS). Oleh karena itu, semua biaya terkait log ditagih melalui SLS.