高可用是分布式任务执行过程中的重要要求,在ACS集群中,您可以通过Kubernetes原生调度语义实现分布式任务的跨可用区打散,以达到高可用区部署的效果。您可以在拓扑分布约束协议字段TopologyKey中指定拓扑标签,实现对工作负载的可用区打散能力。本文详细介绍在ACS中拓扑约束的约束条件和使用方式。
前提条件
已安装调度器组件kube-scheduler,且版本满足以下要求。
ACS集群版本
调度器组件版本
1.31
v1.31.0-aliyun-1.2.0及以上
1.30
v1.30.3-aliyun-1.1.1及以上
1.28
v1.28.9-aliyun-1.1.0及以上
已安装acs-virtual-node组件,版本为v2.12.0-acs.4或以上。
注意事项
ACS调度器组件配置开启GPU-HPN节点自定义标签、调度器在新版本中已默认开启,详见kube-scheduler。
对于同时符合以下条件的Pod,在ACS集群中使用拓扑分布约束功能时,部分协议字段存在相关约束。
Pod的计算类型为高性能网络GPU型(GPU-HPN)。
Pod的
schedulerName为default-scheduler。调度器组件配置未勾选开启GPU-HPN节点自定义标签、调度器。
协议字段 | 含义 | 约束 |
labelSelector | 用于查找匹配的Pod,匹配此标签的Pod将被统计,以确定相应拓扑域中Pod的数量。 | 其他计算类型(通用型、性能型、GPU型)的Pod在计算匹配数量时将不参与统计。 |
matchLabelKeys | 配合labelSelector使用的标签键列表,用于选择需要计算分布方式的Pod集合。 | |
nodeAffinityPolicy | 表示在计算Pod拓扑分布偏差时将如何处理Pod的 nodeAffinity/nodeSelector。 | 不支持。 |
nodeTaintsPolicy | 表示在计算Pod拓扑分布偏差时将如何处理节点污点。 | 不支持。 |
对于通用型、性能型和GPU型实例,可用区拓扑打散协议不存在以上约束。关于各字段详细信息的说明,请参见拓扑分布约束。
操作步骤
执行以下命令查看集群中的虚拟节点。
kubectl get node预期输出:
NAME STATUS ROLES AGE VERSION virtual-kubelet-cn-hangzhou-i Ready agent 5h42m v1.28.3-xx virtual-kubelet-cn-hangzhou-j Ready agent 5h42m v1.28.3-xx使用以下YAML内容,创建dep-spread-demo.yaml文件。
apiVersion: apps/v1 kind: Deployment metadata: name: dep-spread-demo labels: app: spread-demo spec: replicas: 4 selector: matchLabels: app: spread-demo template: metadata: labels: app: spread-demo spec: containers: - name: spread-demo image: registry-cn-beijing.ack.aliyuncs.com/acs/stress:v1.0.4 command: - "sleep" - "infinity" # 指定可用区打散条件,maxSkew指定了各可用区之间的Pod数量相差不能超过一个 topologySpreadConstraints: - maxSkew: 1 topologyKey: topology.kubernetes.io/zone whenUnsatisfiable: DoNotSchedule labelSelector: matchLabels: app: spread-demo执行以下命令,将dep-spread-demo部署到集群。
kubectl apply -f dep-spread-demo.yaml执行以下命令,查看Pod调度的分布情况。
kubectl get pod -o wide预期输出:
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES dep-spread-demo-7c656dbf5f-6twkc 1/1 Running 0 2m29s 192.168.xx.xxx virtual-kubelet-cn-hangzhou-i <none> <none> dep-spread-demo-7c656dbf5f-cgxr8 1/1 Running 0 2m29s 192.168.xx.xxx virtual-kubelet-cn-hangzhou-j <none> <none> dep-spread-demo-7c656dbf5f-f4fz9 1/1 Running 0 2m29s 192.168.xx.xxx virtual-kubelet-cn-hangzhou-j <none> <none> dep-spread-demo-7c656dbf5f-kc6xf 1/1 Running 0 2m29s 192.168.xx.xxx virtual-kubelet-cn-hangzhou-i <none> <none>可以看到4个Pod分布在2个可用区。