Service Mesh (ASM)為ACK叢集和ACS叢集內的服務通訊提供了一種非侵入式的產生遙測資料的能力。這種遙測功能提供了服務行為的可觀測性,可以協助營運人員對應用程式進行故障排除、維護和最佳化,而不會帶來任何額外負擔。根據監控的四個黃金指標維度(延遲、流量、錯誤和飽和度),ASM為管理的服務產生一系列指標。本文介紹如何使用ASM指標實現工作負載的自動Auto Scaling。
前提條件
已建立ASM執行個體。更多資訊,請參見建立ASM執行個體。
已在叢集中建立Prometheus執行個體和Grafana樣本。更多資訊,請參見開源Prometheus監控。
已整合Prometheus實現網格監控。更多資訊,請參見整合自建Prometheus實現網格監控。
背景資訊
Service MeshASM為管理的服務產生一系列指標。更多資訊,請參見Istio標準指標。
自動調整是一種根據資源使用方式進行自動擴縮工作負載的方法。Kubernetes中的自動調整具有以下兩個維度:
叢集自動調整器CA(Cluster Autoscaler):用於處理節點伸縮操作,可以增加或減少節點。
水平自動調整器HPA(Horizontal Pod Autoscaler):用於自動調整應用部署中的Pod,可以調節Pod的數量。
Kubernetes提供的彙總層允許第三方應用程式將自身註冊為API Addon組件來擴充Kubernetes API。這樣的Addon組件可以實現Custom Metrics API,並允許HPA訪問任意指標。HPA會定期通過Resource Metrics API查詢核心指標(例如CPU或記憶體)以及通過Custom Metrics API擷取特定於應用程式的指標,包括ASM提供的可觀測性指標。
步驟一:開啟採集Prometheus監控指標
具體操作,請參見將監控指標採集到可觀測監控Prometheus版。
步驟二:部署自訂指標API Adapter
下載並安裝Adapter到ACK叢集。
helm -n kube-system install asm-custom-metrics ./kube-metrics-adapter --set prometheus.url=http://prometheus.istio-system.svc:9090確認kube-metrics-adapter已啟用。
確認
autoscaling/v2beta已存在。kubectl api-versions |grep "autoscaling/v2beta"預期輸出:
autoscaling/v2beta確認kube-metrics-adapter Pod狀態。
kubectl get po -n kube-system |grep metrics-adapter預期輸出:
asm-custom-metrics-kube-metrics-adapter-85c6d5d865-2**** 1/1 Running 0 19s列出Prometheus適配器提供的自訂外部指標。
kubectl get --raw "/apis/external.metrics.k8s.io/v1beta1" | jq .預期輸出:
{ "kind": "APIResourceList", "apiVersion": "v1", "groupVersion": "external.metrics.k8s.io/v1beta1", "resources": [] }
步驟三:部署樣本應用
部署樣本應用。
使用以下內容,建立podinfo.yaml。
部署podinfo。
kubectl apply -n test -f podinfo.yaml
在命名空間test中部署負載測試服務,用於觸發自動Auto Scaling。
建立loadtester.yaml。
部署負載測試服務。
kubectl apply -n test -f loadtester.yaml
驗證部署樣本應用和負載測試服務是否成功。
確認Pod狀態。
kubectl get pod -n test預期輸出:
NAME READY STATUS RESTARTS AGE loadtester-64df4846b9-nxhvv 2/2 Running 0 2m8s podinfo-6d845cc8fc-26xbq 2/2 Running 0 11m進入負載測試器容器,產生負載。
export loadtester=$(kubectl -n test get pod -l "app=loadtester" -o jsonpath='{.items[0].metadata.name}') kubectl -n test exec -it ${loadtester} -c loadtester -- hey -z 5s -c 10 -q 2 http://podinfo.test:9898返回結果,產生負載成功,說明樣本應用和負載測試服務部署成功。
步驟四:使用ASM指標配置HPA
定義一個HPA,該HPA將根據每秒接收的請求數來擴縮Podinfo的工作負載數量。當平均請求流量負載超過10 req/sec時,將指示HPA擴大部署。
建立hpa.yaml。
apiVersion: autoscaling/v2beta2 kind: HorizontalPodAutoscaler metadata: name: podinfo namespace: test annotations: metric-config.external.prometheus-query.prometheus/processed-requests-per-second: | sum( rate( istio_requests_total{ destination_workload="podinfo", destination_workload_namespace="test", reporter="destination" }[1m] ) ) spec: maxReplicas: 10 minReplicas: 1 scaleTargetRef: apiVersion: apps/v1 kind: Deployment name: podinfo metrics: - type: External external: metric: name: prometheus-query selector: matchLabels: query-name: processed-requests-per-second target: type: AverageValue averageValue: "10"部署HPA。
kubectl apply -f hpa.yaml驗證HPA是否部署成功。
列出Prometheus適配器提供的自訂外部指標。
kubectl get --raw "/apis/external.metrics.k8s.io/v1beta1" | jq .預期輸出:
{ "kind": "APIResourceList", "apiVersion": "v1", "groupVersion": "external.metrics.k8s.io/v1beta1", "resources": [ { "name": "prometheus-query", "singularName": "", "namespaced": true, "kind": "ExternalMetricValueList", "verbs": [ "get" ] } ] }返回結果中包含自訂的ASM指標的資源清單,說明HPA部署成功。
驗證自動Auto Scaling
進入測試器容器,產生工作負載請求。
kubectl -n test exec -it ${loadtester} -c loadtester -- hey -z 5m -c 10 -q 5 http://podinfo.test:9898查看自動調整狀況。
說明預設情況下,指標每30秒執行一次同步,並且只有在最近3分鐘~5分鐘內容器沒有重新縮放時,才可以繼續伸縮。這樣,HPA可以防止衝突決策的快速執行,並為叢集自動擴充程式預留時間。
watch kubectl -n test get hpa/podinfo預期輸出:
NAME REFERENCE TARGETS MINPODS MAXPODS REPLICAS AGE podinfo Deployment/podinfo 8308m/10 (avg) 1 10 6 124m一分鐘後,HPA將開始擴大工作負載,直到請求/秒降至目標值以下。負載測試完成後,每秒的請求數將降為零,並且HPA將開始縮減工作負載Pod數量,幾分鐘後上述命令返回結果中的REPLICAS副本數將恢複為一個。