全部產品
Search
文件中心

Object Storage Service:監控、診斷和故障排除

更新時間:Feb 28, 2024

相對於傳統應用程式,開發雲端應用雖然降低了使用者在基礎設施搭建、營運等方面的成本,但卻增大了監控、診斷和故障排查的難度。OSS儲存服務為您提供了豐富的監控和日誌資訊,協助您深刻洞察程式行為,及時發現並快速定位問題。

本文主要描述如何使用OSS監控服務、日誌記錄功能以及其他第三方工具來監控、診斷和排查應用業務使用OSS儲存服務時遇到的相關問題,協助您達到如下目標:

  • 即時監控OSS儲存服務的健全狀態和效能,並及時警示通知。

  • 擷取有效方法和工具來定位問題。

  • 根據相關問題的處理和操作指南,快速解決與OSS相關的問題。

本文包括如下內容:

  • 服務監控:介紹如何使用OSS監控服務持續監控OSS儲存服務的健全狀態和效能。

  • 跟蹤診斷:介紹如何使用OSS監控服務和日誌記錄功能診斷問題;另外,還介紹如何關聯各種記錄檔中的相關資訊進行跟蹤診斷。

  • 故障排除:提供常見的問題情境和故障排除方法。

服務監控

  • 監視總體健全狀態

    • 可用性和有效請求率

      可用性和有效請求率是有關係統穩定性和使用者是否正確使用系統的最重要指標,指標小於100%說明某些請求失敗。

      使用者層級可用性

      可能因為一些系統最佳化因素出現暫時性的低於100%,例如為了負載平衡而出現分區遷移,此時OSS的SDK能夠提供相關的重試機制無縫處理這類間歇性的失敗情況,使得業務端無感知。

      對於有效請求率低於100%的情況,您需要根據自己的使用方式進行分析,可以通過請求分布統計或者請求狀態詳情確定錯誤請求的具體類型、原因,並排除故障。

      對於某些業務情境,出現有效請求率低於100%是符合預期的。例如,使用者需要先檢查訪問的Object是否存在,然後根據Object的存在性採取一定的操作,如果Object不存在,檢測Object存在性的讀取請求會收到404錯誤(資源不存在錯誤),導致該指標項低於100%。

      對於系統可用性指標要求較高的業務,可以對其設定警示規則,當低於預期閾值時,進行警示。

    • 總請求數和有效請求數

      該指標從總訪問量角度來反應系統運行狀態,當有效請求數不等於總請求數時表明某些請求失敗。

      使用者層級有效請求數

      您可以關注總請求數或者有效請求數的波動狀況,特別是突然上升或者下降的情況,需要進行跟進調查,可以通過設定警示規則進行及時通知。具體操作,請參見警示服務使用指南

    • 請求狀態分布統計

      當可用性或者有效請求率低於100%(或者有效請求數不等於總請求數時),可以通過查看請求狀態分布統計快速確定請求的錯誤類型。有關該統計監控指標的更多資訊,請參見OSS監控指標參考手冊

      使用者層級請求狀態分布

  • 監視請求狀態詳情

    請求狀態詳情是在請求狀態分布統計的基礎上進一步細化請求監控狀態,可以更加深入、具體地監視某類請求。使用者層級服務要求

  • 監視效能

    監控服務提供了以下監控項來監控效能相關的指標:

    • 平均延時,包括E2E平均延時和伺服器平均延時

      延時指標顯示API操作類型處理請求所需的平均和最大時間。其中E2E延時是端到端延遲指標,除了包括處理請求所需的時間外,還包括讀取請求和發送響應所需的時間以及請求在網路上傳輸的延時;而伺服器延時只是請求在伺服器端被處理的時間,不包括與用戶端通訊的網路延時。所以當出現E2E延時突然升高的情況下,如果伺服器延時並沒有很大的變化,那麼可以判定是網路的不穩定因素造成的效能問題,排除OSS系統內部故障。

    • 最大延時,包括E2E最大延時和伺服器最大延時

    • 成功請求操作分類

    • 流量

      流量指標從使用者或者具體的Bucket層級的總體情況進行監控,關注公網、內網、CDN回源以及跨域複製等情境中的網路資源佔用狀況。

    以上各個監控項(除流量)都分別從API操作類型進行分類監控,包括:

    • GetObject

    • HeadObject

    • PutObject

    • PostObject

    • AppendObject

    • UploadPart

    • UploadPartCopy

    成功請求操作分類除了以上提到的API之外,還提供以下兩個API操作類型請求數量的監控:

    • DeleteObject

    • DeleteObjects

    對於效能類指標項,您需要重點關注其突發的異常變化。例如,平均延時突然出現尖峰,或者長時間處於高出正常請求延時的基準上方等。您可以通過對效能指標設定對應的警示規則,當指標低於或者超過閾值時及時通知到相關人員。

  • 監視計量

    目前,OSS監控服務只支援監控儲存區空間大小、公網流出流量、Put類請求數和Get類請求數(不包括跨地區複製流出流量和CDN流出流量),不支援對計量資料的警示設定和OpenAPI的讀取。

    OSS監控服務對Bucket層級的計量監控資料進行小時層級的粒度採集,可以在具體的Bucket監控視圖中查看其持續的監控趨勢圖。您可以根據監控視圖分析其業務的儲存服務資源使用趨勢並且進行成本的預估等。

    OSS監控服務還提供了使用者層級和Bucket層級兩個不同維度當月消費的資源數統計。即統計阿里雲賬戶或者某個Bucket當月消耗的OSS資源總量,每小時更新一次,協助您瞭解本月資源的使用方式並計算消費。

    有關OSS的計費項目和計費方式的更多資訊,請參見計量項目和計費項目

    說明

    監控服務中提供的計量資料是盡最大可能推送的,可能會與實際消費賬單不一致,請以費用中心的資料為準。

跟蹤診斷

  • 問題診斷

    • 診斷效能

      對於應用程式的效能判斷多帶有主觀因素,您需要根據具體的業務情境確定滿足業務需求的基準線,來判定效能問題。另外,從用戶端發起的請求,能引起效能問題的因素貫穿整個請求鏈路。例如OSS儲存服務負載過大、用戶端TCP配置問題或網路基礎結構中存在的流量瓶頸等。

      因此診斷效能問題首先需要設定合理的基準線,然後通過監控服務提供的效能指標確定效能問題可能的根源位置,然後根據日誌查到詳細的資訊以便進一步診斷並且排除故障。

    • 診斷錯誤

      用戶端應用程式會在請求發生錯誤時接收到服務端返回的相關錯誤資訊,監控服務也會記錄並顯示各種錯誤類型請求的計數和佔比。您也可以通過檢查伺服器端日誌、用戶端日誌和部落格來擷取相關單個請求的詳細資料。通常,響應中返回的HTTP狀態碼和OSS錯誤碼以及OSS錯誤資訊都指示請求失敗的原因。

      有關錯誤響應的更多資訊,請參見 OSS錯誤響應

    • 使用日誌功能

      OSS儲存服務為使用者的請求提供服務端日誌記錄功能,能協助使用者記錄端到端的詳細請求日誌跟蹤。

      有關如何開啟並使用日誌功能,請參見設定日誌

      有關Log Service的命名規則以及記錄格式的更多資訊,請參見設定訪問日誌記錄

    • 使用部落格記錄工具

      在大多數情況下,通過Log Service記錄的儲存日誌和用戶端應用程式的日誌資料已足以診斷問題,但在某些情況下,可能需要更詳細的資訊,這時需要使用部落格記錄工具捕獲用戶端和伺服器之間的流量,可以更詳細地擷取用戶端和伺服器之間交換的資料以及底層網路狀況的詳細資料,協助問題的調查。例如,在某些情況下,使用者請求可能會報告一個錯誤,而伺服器端日誌中卻看不到任何該請求的訪問情況,這時就可以使用OSS的Log Service功能記錄的日誌來調查該問題的原因是否出在用戶端上,或者使用網路監視工具來調查網路問題。

      最常用的部落格分析工具之一是Wireshark。該免費的協議分析器運行在資料包層級,能夠查看各種網路通訊協定的詳細資料包資訊,從而可以排查丟失的資料包和串連問題。

      有關如何使用WireShark的詳情,請參見WireShark使用者指南

  • E2E跟蹤診斷

    請求從用戶端應用進程發起,通過網路環境,進入OSS服務端被處理,然後響應從服務端回到網路環境,被用戶端接收。整個過程,是一個端到端的跟蹤過程。關聯用戶端應用程式日誌、網路追蹤記錄檔和服務端日誌,有助於排查問題的詳細資料根源,發現潛在的問題。

    在OSS儲存服務中,提供了RequestID作為關聯各處日誌資訊的標識符。另外,通過日誌的時間戳記,不僅可以迅速尋找和定位日誌範圍,還能夠瞭解在請求發生時間點範圍內,用戶端應用、網路或者服務系統發生的其他事件,有利於問題的分析和調查。

    • RequestID

      OSS服務會為接收的每個請求分配唯一的伺服器請求ID,即RequestID。在不同的日誌中,RequestID位於不同的欄位中:

      • 在OSS日誌功能記錄的服務端日誌記錄中,RequestID出現在“Request ID”列中。

      • 在網路跟蹤(如WireShark捕獲的資料流)中,RequestID作為x-oss-request-id標題值出現在響應訊息中。

      • 在用戶端應用中,需要用戶端code實現的時候將請求的RequestID自行列印到用戶端日誌中。最新版本的Java SDK已經支援列印正常請求的RequestID資訊,可以通過各個API介面返回的Result結果的getRequestId這個方法擷取。OSS的各個版本SDK都支援列印出異常請求的RequestID,可以通過調用OSSException的getRequestId方法擷取。

    • 時間戳記

      使用時間戳來尋找相關日誌項,需要注意用戶端和伺服器之間可能存在的時間偏差。在用戶端上基於時間戳記搜尋日誌功能記錄的伺服器端日誌條目時,應加上或減去15分鐘。

故障排除

  • 效能相關常見問題

    • 平均E2E延時高,而平均服務端延時低

      前面介紹了平均E2E延時與平均伺服器延時的區別。所以產生高E2E延時、低伺服器延時可能的原因有兩個:

      • 用戶端應用程式響應慢

        • 可用串連數或可用線程數有限

          • 對於可用串連數問題,可以使用相關命令確定系統是否存在大量TIME_WAIT狀態的串連。如果是,可以通過調整核心參數解決。

          • 對於可用線程數有限,可以先查看用戶端CPU、記憶體、網路等資源是否已經存在瓶頸,如果沒有,適當調大並發線程數。

          • 如果還不能解決問題,那麼就需要通過最佳化用戶端代碼。例如,使用非同步訪問方式等。也可以使用效能分析功能分析用戶端應用程式熱點,然後具體最佳化。

        • CPU、記憶體或網路頻寬等資源不足

          對於這類問題,需要先使用相關係統的資源監控查看用戶端具體的資源瓶頸在哪裡,然後通過最佳化代碼使其對資源的使用更為合理,或者擴容用戶端資源(使用更多的核心或者記憶體)。

      • 網路原因導致

        通常,因網路導致的端到端高延遲是由暫時狀況導致的。可以使用Wireshark調查臨時和持久網路問題,例如資料包丟失問題。

    • 平均E2E延時低,平均服務端延時低,但用戶端請求延時高

      用戶端出現請求延時高的情況,最可能的原因是請求還未達到服務端就出現了延時。所以應該調查來自用戶端的請求為什麼未到達伺服器。

      對於用戶端延遲發送請求,可能的用戶端的原因有兩個:

      • 可用串連數或可用線程數有限

        • 對於可用串連數問題,可以使用相關命令確定系統是否存在大量TIME_WAIT狀態的串連。如果是,可以通過調整核心參數解決。

        • 對於可用線程數有限,可以先查看用戶端CPU、記憶體、網路等資源是否已經存在瓶頸,如果沒有,適當調大並發線程數。

        • 如果還不能解決問題,那麼就需要通過最佳化用戶端代碼。例如,使用非同步訪問方式等。也可以使用效能分析功能分析用戶端應用程式熱點,然後具體最佳化。

      • 用戶端請求出現多次重試,如果遇到這種情況,需要根據重試資訊具體調查重試的原因再解決。可以通過下面方式確定用戶端是否出現重試:

        • 檢查用戶端日誌,詳細日誌記錄會指示重試已發生過。以OSS的Java SDK為例,可以搜尋如下日誌提示,warn或者info的層級。如果存在該日誌,說明可能出現了重試。

          [Server]Unable to execute HTTP request:
            或者
            [Client]Unable to execute HTTP request:
        • 如果用戶端的記錄層級為debug,以OSS的Java SDK為例,可以搜尋如下日誌,如果存在,那麼肯定出現過重試。

          Retrying on

      如果用戶端沒有問題,則應調查潛在的網路問題,例如資料包丟失。可以使用工具(如Wireshark )調查網路問題。

    • 平均服務端延時高

      對於下載或者上傳出現服務端高延時的情況,可能的原因有2個:

      • 大量用戶端頻繁訪問同一個小Object

        這種情況,可以通過查看日誌功能記錄的服務端日誌資訊來確定是否在一段時間內,某個或某組Object被頻繁訪問。

        對於下載情境,建議使用者為該Bucket開通CDN服務,利用CDN來提升效能,並且可以節約流量費用;對於上傳情境,使用者可以考慮在不影響業務需求的情況下,收回Object或Bucket的寫存取權限。

      • 系統內部因素

        對於系統內部問題或者不能通過最佳化方式解決的問題,請提供用戶端日誌或者日誌功能記錄的日誌資訊中的RequestID,聯絡售後技術人員協助解決。

  • 服務端錯誤問題

    對於服務端錯誤的增加,可以分為兩個情境考慮:

    • 暫時性的增加

      對於這一類問題,您需要調整用戶端程式中的重試策略,採用合理的退讓機制,例如指數退避。這樣不僅可以有效避免因為最佳化或者升級等系統操作(如為了系統負載平衡進行分區遷移等)暫時導致的服務不可用問題,還可以避開業務峰值的壓力。

    • 永久性的增加

      如果服務端錯誤持續在一個較高的水平,那麼請提供用戶端日誌或者日誌功能記錄的RequestID,聯絡售後技術人員協助調查。

  • 網路錯誤問題

    網路錯誤是指服務端正在處理請求時,串連在非伺服器端斷開而來不及返回HTTP要求標頭的情況。此時系統會記錄該請求的HTTP狀態代碼為499。以下幾種情況會導致伺服器記錄請求的狀態代碼變為499:

    • 伺服器在收到讀寫請求處理之前,會檢查串連是否可用,不可用則為499。

    • 伺服器正在處理請求時,用戶端提前關閉了串連,此時請求被記錄為499。

    在請求過程中,用戶端主動關閉請求或者用戶端網路斷掉都會產生網路錯誤。對於用戶端主動關閉請求的情況,需要調查用戶端中的代碼,瞭解用戶端斷開與儲存服務串連的原因和時間。對於用戶端網路斷掉的情況,使用者可以使用工具(如Wireshark)調查網路連接問題。

  • 用戶端錯誤問題

    • 用戶端授權錯誤請求增加

      當監控中的用戶端授權錯誤請求數增加,或者用戶端程式接收到大量的403請求錯誤,那麼最常見的可能原因有以下幾個:

      • 使用者訪問的Bucket網域名稱不正確

        • 如果使用者直接用第三層網域名或者次層網域訪問,那麼可能的原因就是使用者的Bucket並不屬於該網域名稱所指示的region內,例如,使用者建立的Bucket的地區為杭州,但是訪問的網域名稱卻為Bucket.oss-cn-shanghai.aliyuncs.com。這時需要確認Bucket的所屬地區,然後更正網域名稱資訊。

        • 如果使用者開啟了CDN加速服務,那麼可能的原因是CDN綁定的回源網域名稱錯了,請檢查CDN回源網域名稱是否為使用者Bucket的第三層網域名。

        • 如果使用者使用JavaScript用戶端遇到403錯誤,可能的原因就是CORS(跨域資源共用)的設定問題,因為Web瀏覽器實施了“同源策略”的安全限制。使用者需要先檢查所屬Bucket的CORS設定是否正確,並進行相應的更正。有關設定CORS的具體步驟,請參見跨域資源共用

      • 存取控制問題

        • 使用者使用主AK訪問,那麼使用者需要檢查是否AK設定出錯,使用了無效AK。

        • 使用者使用RAM子帳號訪問,那麼使用者需要確定RAM子帳號是否使用了正確的子AK,或者對應子帳號的相關操作是否已經授權。

        • 使用者使用STS臨時Token訪問,那麼使用者需要確認一下這個臨時Token是否已經到期。如果到期,需要重新申請。

        • 如果Bucket或者Object設定了存取控制,這個時候需要查看使用者所訪問的Bucket或者Object是否支援相關的操作。

      • URL到期

        授權第三方下載,即使用者使用簽名URL進行OSS資源訪問,如果之前訪問正常而突然遇到403錯誤,最大可能的原因是URL已經到期。

      • RAM子帳號使用OSS周邊工具的情況也會出現403錯誤。這類周邊工具如ossftp、ossbrowser、OSS控制台用戶端等,在填寫相關的AK資訊登入時就拋出錯誤,此時如果您的AK是正確填寫的,那麼您需要查看使用的AK是否為子帳號AK,該子帳號是否有GetService等操作的授權等。

    • 用戶端資源不存在錯誤請求增加

      用戶端收到404錯誤說明使用者試圖訪問不存在的資源資訊。當看到監控服務上資源不存在錯誤請求增加,那麼最大可能是以下問題導致的:

      • 使用者的業務使用方式。例如使用者需要先檢查Object是否存在來進行下一步動作,可以調用doesObjectExist(以JAVA SDK為例)方法,如果Object不存在,在用戶端則收到false值,但是這時在伺服器端實際上會產生一個404的請求資訊。所以,這種業務情境下,出現404是正常的業務行為。

      • 用戶端或其他進程以前刪除了該對象。這種情況可以通過搜尋logging功能記錄的服務端日誌資訊中的相關對象操作即可確認。

      • 網路故障引起丟包重試。例如用戶端發起一個刪除操作刪除某個Object,此時請求達到服務端,執行刪除成功,但是響應在網路環境中丟包,然後用戶端發起重試,第二次的刪除操作可能就會遇到404錯誤。這種由於網路問題引起的404錯誤可以通過用戶端日誌和服務端日誌確定:

        • 查看用戶端應用日誌是否出現重試請求。

        • 查看服務端日誌是否對該Object有兩次刪除操作,前一次的刪除操作HTTP Status為2xx。

    • 有效請求率低且用戶端其他錯誤請求數高

      有效請求率為請求返回的HTTP狀態代碼為2xx/3xx的請求數佔總請求的比例。狀態代碼為4XX和5XX範圍內的請求將計為失敗並降低該比例。用戶端其他錯誤請求是指除服務端錯誤請求(5xx)、網路錯誤請求(499)、用戶端授權錯誤請求(403)、用戶端資源不存在錯誤請求(404)和用戶端逾時錯誤請求(408或者OSS錯誤碼為RequestTimeout的400請求)這些錯誤請求之外的請求。

      您可以通過查看日誌功能記錄的服務端日誌確定這些錯誤的具體類型,之後根據OSS錯誤響應碼在用戶端代碼中尋找具體原因進行解決。詳情請參見OSS錯誤響應

  • 儲存容量異常增加

    儲存容量異常增加,如果不是上傳類請求量增多,常見的原因應該是清理操作出現了問題,可以根據下面兩個方面進行調查:

    • 用戶端應用使用特定的進程定期清理來釋放空間。針對這種請求的調查步驟是:

      1. 查看有效請求率指標是否下降,因為失敗的刪除請求會導致清理操作沒能按預期完成。

      2. 定位請求有效率降低的具體原因,查看具體是什麼錯誤類型的請求導致。然後還可以結合具體的用戶端日誌定位更詳細的錯誤資訊(例如,用於釋放空間的STS臨時Token已到期)。

    • 用戶端通過設定LifeCycle來清理空間:針對這種請求,需要通過控制台或者API介面查看目前Bucket的LifeCycle是否為之前設定的預期值。如果不是,可以直接更正目前配置;進一步的調查可以通過Logging功能記錄的服務端日誌記錄查詢以前修改的具體資訊。如果LifeCycle是正常的,但是卻沒有生效,請聯絡OSS系統管理員協助調查。

  • 其他儲存服務問題

    如果前面的故障排除章節未包括您遇到的儲存服務問題,則可以採用以下方法來診斷和排查您的問題:

    1. 查看OSS監控服務,瞭解與預期的基準行為相比是否存在任何更改。監控視圖可能能夠確定此問題是暫時的還是永久性的,並可確定此問題影響哪些儲存操作。

    2. 使用監控資訊來協助您搜尋日誌功能記錄的服務端日誌資料,擷取相關時間點發生的任何錯誤資訊。此資訊可能會協助您排查和解決該問題。

    3. 如果伺服器端日誌中的資訊不足以成功排查此問題,則可以使用用戶端日誌來調查用戶端應用程式,或者配合使用網路工具(Wireshark等)調查您的網路問題。