威脅分析與響應(CTDR)功能,支援從 Kafka、Amazon S3、阿里雲 OSS 等多種渠道集中採集日誌,協助建立統一的日誌分析和安全營運中心,實現跨雲環境的統一安全管理。
工作流程
方案選型
在開始配置前,請根據資料來源類型、成本考量和對資料即時性的要求,選擇最合適的日誌匯入渠道。
匯入渠道 | 適用情境 | 功能特點 |
Kafka |
|
|
S3 (或相容協議的Object Storage Service) |
|
|
OSS (阿里雲Object Storage Service) | 日誌資料已儲存在阿里雲 OSS。 | 與阿里雲生態整合度高,配置便捷。 |
投遞日誌到中間渠道
CTDR匯入功能需通過 Kafka、S3 或 OSS等渠道擷取資料。因此需要先將源端的日誌資料投遞到所選的中間渠道。
投遞方式樣本:
OSS:將日誌資料存放區至阿里雲 OSS 儲存空間(Bucket)中。更多說明,請參見OSS快速入門。
華為云:通過華為雲Log Service(LTS)的日誌轉儲功能,將資料轉存至Kafka或OBS。更多說明,請參見匯入華為雲日誌資料。
騰訊云:通過騰訊雲Log Service (CLS)的日誌轉儲功能,將資料轉存至Kafka或COS。更多說明,請參見匯入騰訊雲日誌資料。
Azure:利用Azure Event Hub(事件中心)對Apache Kafka協議的相容性,將事件中心視為一個Kafka服務,CTDR從中擷取日誌資料。更多說明,請參見匯入Azure日誌資料。
儲存訪問資訊:請妥善保管訪問憑證(如 AccessKey、密碼)和存取點資訊(如 Endpoint、Bucket名稱)。
授權Security Center訪問三方服務
使用三方資料渠道,需授權CTDR訪問其資源的許可權,以允許 CTDR 讀取其中的日誌資料。
Kafka、S3(Object Storage Service)
訪問Security Center控制台-威脅分析與響應-接入中心,在頁面左側頂部,選擇需防護資產所在的地區:中國內地或非中國內地。
在多云配置管理頁簽,選擇多云资产後,單擊新增授权,下拉選擇IDC。在彈出的面板中進行如下配置:
說明具體的配置項的數值(如訪問地址等)可參考各雲廠商的官方說明文檔。
目前的版本中,配置通用的 Kafka 或 S3 相容儲存(如 AWS S3、騰訊雲 COS、華為雲 OBS)時,請選擇 IDC 選項。此為介面歸類方式,不影響實際功能。
Kafka
廠商:選擇 Apache。
接入方式:選擇 Kafka。
存取點:Kafka公網訪問地址。
說明Event Hub訪問地址為:
<YOUR-NAMESPACE>.servicebus.windows.net:9093。使用者名稱/密碼:Kafka的使用者名稱/密碼。
說明Event Hub對應Kafka使用者名稱預設為
$ConnectionString,密碼為主連接字串。通訊協定:Kafka配置中的security.protocol,支援設定plaintext(預設)、sasl_plaintext、sasl_ssl、ssl等。
SASL 認證機制:Kafka 配置中的 sasl.mechanism,支援設定:plain、SCRAM-SHA-256、SCRAM-SHA-512等。
S3
廠商:選擇 AWS-S3。
接入方式:選擇S3 。
存取點:Object Storage Service的訪問地址。
Access Key Id/Secret Access Key:輸入訪問S3的存取金鑰。
配置同步策略
AK服務狀態檢查:設定Security Center自動檢查存取金鑰有效性的時間間隔。可選“關閉”,表示不進行檢測。
OSS
訪問雲資源訪問授權頁面,單擊確認授權,授予系統角色訪問OSS資源的許可權。
若為RAM使用者,還需配置以下許可權。具體操作,請參見建立自訂權限原則和管理RAM使用者的許可權。
{ "Statement": [ { "Effect": "Allow", "Action": "ram:PassRole", "Resource": "acs:ram:*:*:role/aliyunlogimportossrole" }, { "Effect": "Allow", "Action": "oss:GetBucketWebsite", "Resource": "*" }, { "Effect": "Allow", "Action": "oss:ListBuckets", "Resource": "*" } ], "Version": "1" }
建立資料匯入任務
建立資料來源
為日誌資料建立一個專屬CTDR 資料來源,若已建立請跳過此步驟。
訪問Security Center控制台-威脅分析與響應-接入中心,在頁面左側頂部,選擇需防護資產所在的地區:中國內地或非中國內地。
在資料來源頁簽,建立接收日誌的資料來源。具體操作請參見建立資料來源:日誌未接入Log Service(SLS)。
來源資料源類型:可選擇CTDR專屬資料擷取通道(推薦)或使用者側Log Service。
接入執行個體:建議建立日誌庫(Logstore),進行資料隔離。
在數據匯入頁簽,單擊新增數據匯入。在彈出的面板中根據資料來源類型進行如下配置:
說明具體的配置項的數值可參考各雲廠商的官方說明文檔。
Kafka
終端節點:選擇授權Security Center訪問三方服務時填寫的Kafka公網訪問地址。
Topics:選擇Kafka中儲存日誌的Topic。
說明Event Hub名稱即為Kafka的topic。
實值型別:日誌儲存格式,常見的關係如下:
三方儲存格式
實值型別
JSON格式
json
原始日誌格式
text
S3
終端節點:S3儲存桶訪問地址(Endpoint)。
OBS桶(Bucket):S3儲存桶ID。
檔案路徑首碼過濾:通過檔案路徑首碼過濾S3檔案,用於準確定位待匯入的檔案。例如待匯入的檔案都在csv/目錄下,則可以指定首碼為csv/。
警告強烈建議設定此參數。如果不設定,系統將遍曆整個 S3 Bucket。當 Bucket 內檔案數量巨大時,全量遍曆會嚴重影響匯入效率。
檔案路徑正則過濾:通過Regex篩選檔案,用於準確定位待匯入的檔案。預設為空白,表示不過濾。例如S3檔案為
testdata/csv/bill.csv,可以設定Regex為(testdata/csv/)(.*)。說明推薦與檔案路徑首碼過濾一起設定,提高效率。此配置與檔案路徑首碼過濾之前為“且(and)”的關係。
調整Regex的方法,請參見如何調試Regex。
資料格式:檔案的解析格式,如下所示。
CSV:分隔字元分割的文字檔,支援指定檔案中的首行為欄位名稱或手動指定欄位名稱。除欄位名稱外的每一行都會被解析為日誌欄位的值。
JSON:逐行讀取S3檔案,將每一行看作一個JSON對象進行解析。解析後,JSON對象中的各個欄位對應為日誌中的各個欄位。
單行文本:將S3檔案中的每一行解析為一條日誌。
跨行文本:多行模式,支援指定首行或者尾行的Regex解析日誌。
若選擇為CSV或跨行文本時,需額外設定相關參數,具體說明如下所示。
CSV
參數
說明
分隔字元
設定日誌的分隔字元,預設值為半形逗號(,)。
引號
CSV字串所使用的引號字元。
轉義符
配置日誌的轉義符,預設值為反斜線(\)。
日誌最大跨行數
當一條日誌跨多行時,需要指定最大行數,預設值為1。
首行作為欄位名稱
開啟開關後,將使用CSV檔案中的首行作為欄位名稱。例如提取下圖中的首行為日誌欄位的名稱。

跳過行數
指定跳過的日誌行數。例如設定為1,則表示從CSV檔案中的第2行開始採集日誌。
跨行文本
參數
說明
正則匹配位置
設定Regex匹配的位置,具體說明如下:
首行正則:使用Regex匹配一條日誌的行首,未匹配部分為該條日誌的一部分,直到達到最大行數。
尾行正則:使用Regex匹配一條日誌的行尾,未匹配部分為下一條日誌的一部分,直到達到最大行數。
Regex
根據日誌內容,設定正確的Regex。調整Regex的方法,請參見如何調試Regex。
最大行數
一條日誌最大的行數。
編碼格式:待匯入的S3檔案的編碼格式。支援GBK、UTF-8。
壓縮格式:根據設定S3資料壓縮格式,由系統自動檢測。
檔案修改時間過濾:從任務啟動時刻回溯30分鐘作為起始時間,匯入此後修改的所有檔案(含未來新增檔案)。
檢查新檔案周期:用於設定匯入任務定期掃描新檔案的時間間隔,任務將按此時間間隔自動掃描並匯入新增的檔案。
OSS
重要目前僅支援匯入5 GB以內的OSS檔案,壓縮檔大小按照壓縮後的大小計算。
OSS地區:OSS資料存放區地區。
說明跨地區訪問會產生公網流量費用,此部分費用由OSS服務收取,具體說明請參見費用說明。
Bucket:待匯入的OSS檔案所在的Bucket。
檔案路徑首碼過濾:通過Regex篩選檔案,用於準確定位待匯入的檔案。例如待匯入的檔案都在csv/目錄下,則可以指定首碼為csv/。
警告建議設定此參數,如果不設定,系統遍曆整個OSS Bucket。若當檔案數量巨大時,遍曆整個Bucket會影響匯入效率併產生不必要的費用。
檔案路徑正則過濾:通過Regex篩選檔案,用於準確定位待匯入的檔案。預設為空白,表示不過濾。例如OSS檔案為
testdata/csv/bill.csv,您可以設定Regex為(testdata/csv/)(.*)。說明推薦與檔案路徑首碼過濾一起設定,提高效率。此配置與檔案路徑首碼過濾之前為“且(and)”的關係。
調整Regex的方法,請參見如何調試Regex。
檔案修改時間過濾:從任務啟動時刻回溯30分鐘作為起始時間,匯入此後修改的所有檔案(含未來新增檔案)。
資料格式:檔案的解析格式,如下所示。
CSV:分隔字元分割的文字檔,支援指定檔案中的首行為欄位名稱或手動指定欄位名稱。除欄位名稱外的每一行都會被解析為日誌欄位的值。
單行JSON:逐行讀取OSS檔案,將每一行看做一個JSON對象進行解析。解析後,JSON對象中的各個欄位對應為日誌中的各個欄位。
單行文本:將OSS檔案中的每一行解析為一條日誌。
跨行文本:多行模式,支援指定首行或者尾行的Regex解析日誌。
ORC:ORC檔案格式,無需任何配置,自動解析成日誌格式。
Parquet:Parquet格式,無需任何配置,自動解析成日誌格式。
阿里雲OSS訪問日誌:阿里雲OSS訪問日誌格式。更多資訊,請參見日誌轉存。
阿里雲CDN下載日誌:阿里雲CDN下載日誌格式。更多資訊,請參見快速入門。
若選擇為CSV或跨行文本時,需額外設定相關參數,具體說明如下所示。
CSV
參數
說明
分隔字元
設定日誌的分隔字元,預設值為半形逗號(,)。
引號
CSV字串所使用的引號字元。
轉義符
配置日誌的轉義符,預設值為反斜線(\)。
日誌最大跨行數
當一條日誌跨多行時,需要指定最大行數,預設值為1。
首行作為欄位名稱
開啟開關後,將使用CSV檔案中的首行作為欄位名稱。例如提取下圖中的首行為日誌欄位的名稱。

跳過行數
指定跳過的日誌行數。例如設定為1,則表示從CSV檔案中的第2行開始採集日誌。
跨行文本
參數
說明
正則匹配位置
設定Regex匹配的位置,具體說明如下:
首行正則:使用Regex匹配一條日誌的行首,未匹配部分為該條日誌的一部分,直到達到最大行數。
尾行正則:使用Regex匹配一條日誌的行尾,未匹配部分為下一條日誌的一部分,直到達到最大行數。
Regex
根據日誌內容,設定正確的Regex。調整Regex的方法,請參見如何調試Regex。
最大行數
一條日誌最大的行數。
編碼格式:待匯入的OSS檔案的編碼格式。支援GBK、UTF-8。
壓縮格式:根據設定OSS資料壓縮格式,由系統自動檢測。
檢查新檔案周期:用於設定匯入任務定期掃描新檔案的時間間隔,任務將按此時間間隔自動掃描並匯入新增的檔案。
配置目標資料來源
資料來源名稱:選擇步驟1建立的資料來源。
目標Logstore:根據步驟1設定的日誌庫(Logstore)。
單擊確定儲存配置:匯入配置完成後,Security Center將自動從資料匯入渠道拉取日誌。
分析匯入資料
資料成功接入後,需配置相應的解析和檢測規則,才能讓Security Center對這些日誌進行分析。
費用與成本
CTDR 與 SLS 計費:費用的承擔主體取決於選擇的資料存放區方式。
說明威脅分析與響應(CTDR)計費說明,請參見威脅分析與響應訂用帳戶、威脅分析與響應隨用隨付。
Log Service(SLS)計費說明,請參見計費概述。
資料來源類型
CTDR 計費項目
SLS 計費項目
特別說明
CTDR專屬資料擷取通道
日誌接入費用。
日誌儲存、寫入費用。
說明以上均消耗日志接入流量。
除日誌儲存和寫入外的其他費用(如公網流量等)。
由CTDR 建立並管理 SLS 資源,因此日誌庫儲存和寫入費用由CTDR出賬。
使用者側Log Service
日誌接入費用,消耗日志接入流量。
日誌相關所有費用(包含日誌儲存和寫入、公網流量費用等)。
日誌資源全部由Log Service(SLS)管理,因此日誌相關費用,均由SLS出賬。
OSS相關費用:從 OSS 匯入資料時,OSS需收取流量費用和請求費用,關計費項目的定價詳情,請參見OSS定價。
成本計算公式

欄位
說明
N每天匯入的檔案個數。
T每天匯入的總資料量,單位:GB。
p_read每GB資料的流量費用。
同地區匯入時,會產生OSS的內網流出流量,該流量免費。
跨地區匯入時,會產生OSS的外網流出流量。
p_put每萬次的Put類型請求費用。
Log Service使用ListObjects介面擷取目標Bucket中的檔案清單。該介面在OSS側按照Put類型請求收費。另外,該介面每次最多返回1000條資料,因此如果您有100萬個新增檔案,需要進行1,000,000/1000=1000次請求。
p_get每萬次的GET類型請求費用。
M新檔案檢查周期,單位:分鐘。
您可以在建立資料匯入配置時,設定檢查新檔案周期參數。
計費案例
三方費用:
Azure:事件中心定價。