Fitur Agentic SOC dari Security Center menggunakan protokol Kafka standar untuk mengonsumsi log dari Azure Event Hubs, memungkinkan manajemen keamanan terpadu dan deteksi ancaman di lingkungan multi-cloud.
Cara kerja
Solusi ini memanfaatkan kompatibilitas antara Azure Event Hubs dan protokol Apache Kafka, sehingga Event Hub dapat berfungsi sebagai layanan Kafka. Security Center bertindak sebagai klien Kafka yang menggunakan endpoint, topic, dan kredensial tertentu untuk mengambil data log dari Event Hub. Data yang diambil kemudian digunakan untuk normalisasi terpadu, parsing, dan deteksi ancaman. Proses konfigurasinya adalah sebagai berikut:
Persiapkan Event Hub di Azure
Untuk informasi lebih lanjut, lihat dokumen resmi Azure Buat event hub menggunakan portal Azure.
Langkah 1: Buat resource group
Masuk ke Azure portal.
Pada panel navigasi kiri, pilih Resource groups, lalu klik Add.

Pada halaman Create a resource group, tentukan konfigurasi berikut, lalu klik Review + create.
Subscription: Pilih langganan Azure yang akan berisi resource group tersebut.
Resource group name: Nama unik untuk kelompok sumber daya.
Region: Pilih region tempat resource group berada.
Setelah mengonfirmasi informasi, klik Add.
Langkah 2: Buat namespace Event Hubs
Pada panel navigasi kiri, klik All services. Di area layanan Analytics, klik Event Hubs.

Pada halaman Event Hubs, klik Create dan konfigurasikan parameter berikut.
Subscription: Pilih nama Subscription yang Anda tentukan di Langkah 1.
Resource group: Pilih Resource group yang dibuat di Langkah 1.
Namespace name: Masukkan nama untuk namespace. Endpoint yang sesuai ditampilkan di bawah kotak teks.
PentingNama namespace menentukan endpoint untuk broker Kafka.

Region: Pilih region tempat Resource group yang Anda buat di Langkah 1 berada.
Pricing tier: Pilih tier harga berdasarkan kebutuhan bisnis Anda. Nilai default adalah Basic.
CatatanUntuk informasi lebih lanjut tentang perbedaan antar tier, lihat Quotas and limits, Event Hubs Premium, dan Event Hubs Dedicated.
Throughput units / Processing units (tier Premium): Pertahankan konfigurasi default.
CatatanUntuk informasi lebih lanjut tentang throughput units atau processing units, lihat Scalability of Event Hubs.
Enable Auto-inflate: Anda dapat mengaktifkan fitur ini berdasarkan kebutuhan bisnis Anda.
Masukkan pengaturan konfigurasi dan klik Review + create di bagian bawah halaman.
Setelah mengonfirmasi konfigurasi, klik Create dan tunggu hingga penerapan selesai.
Pada halaman Your deployment is complete, klik Go to resource untuk melihat halaman detail namespace.
CatatanAnda juga dapat membuka halaman detail namespace dari halaman utama Event Hubs dengan mengklik nama namespace dalam daftar.
Langkah 3: Buat event hub
Pada halaman detail namespace yang dibuat di Langkah 2, klik + Event Hub.
Pada halaman pembuatan, masukkan informasi berikut dan klik Review + create.
Name: Masukkan nama untuk Event Hub.
PentingNama Event Hub bersesuaian dengan topic saat Anda mengonfigurasi Kafka. Gunakan nama yang deskriptif dan mudah dipahami.
Konfigurasi lainnya: Pertahankan pengaturan default.
Pada halaman konfirmasi, klik Create. Tunggu hingga tugas selesai.
Kembali ke halaman utama namespace. Data baru muncul di bagian Event Hubs.
Langkah 4: Dapatkan primary connection string
Pada halaman namespace, di panel navigasi kiri, di bawah Settings, klik Shared access policies.
Klik kebijakan utama,
RootManageSharedAccessKey. Di panel detail kebijakan, salin Connection string-primary key.PentingConnection string-primary key merupakan kredensial (password) untuk impor Kafka.

Langkah 5: Tulis data ke event hub
Ikuti petunjuk dalam dokumentasi resmi Azure untuk menulis data yang ingin Anda analisis ke event hub yang Anda buat di Langkah 3. Anda dapat merujuk ke dokumen berikut:
Konfigurasikan impor data di Security Center
Langkah 1: Berikan otorisasi kepada Security Center untuk mengakses Event Hub
Buka Security Center console > Agentic SOC > Integration Center. Di pojok kiri atas halaman, pilih region tempat aset Anda berada: Chinese Mainland atau Outside Chinese Mainland.
Pada tab Multi-cloud Configuration Management, klik Multi-cloud Assets. Lalu, klik Grant Permission dan pilih IDC dari daftar drop-down. Pada panel yang muncul, konfigurasikan parameter berikut:
Service Provider: Pilih Apache.
Connection Type: Pilih Kafka.
Endpoint:
<YOUR-NAMESPACE>.servicebus.windows.net:9093.CatatanGanti
<YOUR-NAMESPACE>dengan namespace name Event Hubs.Username: Nilai ini tetap
$ConnectionStringdan tidak dapat diubah.Password: primary connection string dari Event Hub.
Communication Protocol:
sasl_ssl.SASL Authentication Mechanism:
plain.
Konfigurasikan kebijakan sinkronisasi
AK Service Status Check: Parameter ini tidak berlaku. Anda dapat melewati langkah ini.
Langkah 2: Buat tugas impor data
Buat sumber data
Buat sumber data untuk data log Azure. Jika sudah membuatnya, lewati langkah ini.
Buka Security Center console > Agentic SOC > Integration Center. Di pojok kiri atas, pilih region tempat aset Anda berada: Chinese Mainland atau Outside Chinese Mainland.
Pada tab Data Source, buat sumber data untuk menerima log. Untuk informasi lebih lanjut, lihat Buat sumber data: Log tidak terhubung ke Simple Log Service (SLS).
Source Data Source Type: Anda dapat memilih Agentic SOC Dedicated Collection Channel (Direkomendasikan) atau User Log Service.
Add Instances: Kami menyarankan Anda membuat Logstore baru untuk mengisolasi data.
Pada tab Data Import, klik Add Data. Pada panel yang muncul, konfigurasikan parameter berikut:
Data Source Type: Kafka.
Endpoint:
<YOUR-NAMESPACE>.servicebus.windows.net:9093.Topics: Nama Event Hub yang Anda tetapkan saat membuat event hub.
Value Type: json.
Konfigurasikan sumber data tujuan
Data Source Name: Pilih sumber data yang Anda buat pada langkah Create a data source di bagian ini.
Destination Logstore: Pilih Logstore yang Anda tetapkan pada langkah Create a data source di bagian ini.
Klik OK untuk menyimpan konfigurasi. Setelah impor dikonfigurasi, Security Center secara otomatis mengambil log dari Azure Event Hubs.
Analisis data yang diimpor
Setelah data berhasil dikonsumsi, Anda harus mengonfigurasi aturan parsing dan deteksi agar Security Center dapat menganalisis log tersebut.
Buat kebijakan akses baru
Untuk informasi lebih lanjut, lihat Integrasi produk. Buat kebijakan akses baru dengan konfigurasi berikut:
Data Source: Pilih Destination Data Source yang dikonfigurasi dalam tugas impor data.
Standardized Rule: Agentic SOC menyediakan aturan standardisasi bawaan untuk beberapa produk cloud yang dapat Anda gunakan langsung.
Standardization Method: Saat log masuk distandardisasi menjadi log alert, hanya metode standardisasi Real-time Consumption yang didukung.
Konfigurasikan aturan deteksi ancaman
Berdasarkan kebutuhan keamanan Anda, aktifkan atau buat aturan deteksi log di manajemen aturan untuk menganalisis log, menghasilkan alert, dan membuat event keamanan. Untuk informasi lebih lanjut, lihat Manajemen aturan.

Biaya dan pengeluaran
Solusi ini melibatkan biaya untuk layanan berikut. Sebelum melanjutkan, tinjau dokumentasi penagihan untuk setiap produk guna memperkirakan biaya Anda.
Sisi Azure: Harga Event Hubs.
Sisi Alibaba Cloud: Biaya tergantung pada metode penyimpanan data yang Anda pilih.
CatatanUntuk informasi tentang penagihan Agentic SOC, lihat Detail penagihan dan Penagihan pay-as-you-go untuk Threat Analysis and Response.
Untuk informasi tentang penagihan Simple Log Service (SLS), lihat Ikhtisar penagihan SLS.
Jenis sumber data
Item yang dapat ditagih Agentic SOC
Item yang dapat ditagih SLS
Catatan
Agentic SOC Dedicated Collection Channel
Biaya ingestion log.
Biaya penyimpanan dan penulisan log.
CatatanKedua item tersebut mengonsumsi Log Ingestion Traffic.
Biaya untuk item selain penyimpanan dan penulisan log (seperti traffic jaringan publik).
Agentic SOC membuat dan mengelola resource SLS. Oleh karena itu, biaya penyimpanan dan penulisan Logstore ditagih melalui Agentic SOC.
User Log Service
Biaya ingestion log, yang mengonsumsi Log Ingestion Traffic.
Semua biaya terkait log (termasuk penyimpanan, penulisan, traffic jaringan publik, dll.).
Semua resource log dikelola oleh Simple Log Service (SLS). Oleh karena itu, semua biaya terkait log ditagih melalui SLS.