全部产品
Search
文档中心

容器计算服务 ACS:可用区拓扑打散

更新时间:Feb 28, 2026

高可用是分布式任务执行过程中的重要要求,在ACS集群中,您可以通过Kubernetes原生调度语义实现分布式任务的跨可用区打散,以达到高可用区部署的效果。您可以在拓扑分布约束协议字段TopologyKey中指定拓扑标签,实现对工作负载的可用区打散能力。本文详细介绍在ACS中拓扑约束的约束条件和使用方式。

前提条件

  • 已安装调度器组件kube-scheduler,且版本满足以下要求。

    ACS集群版本

    调度器组件版本

    1.31

    v1.31.0-aliyun-1.2.0及以上

    1.30

    v1.30.3-aliyun-1.1.1及以上

    1.28

    v1.28.9-aliyun-1.1.0及以上

  • 已安装acs-virtual-node组件,版本为v2.12.0-acs.4或以上。

注意事项

说明

ACS调度器组件配置开启GPU-HPN节点自定义标签、调度器在新版本中已默认开启,详见kube-scheduler

对于同时符合以下条件的Pod,在ACS集群中使用拓扑分布约束功能时,部分协议字段存在相关约束。

  • Pod的计算类型为高性能网络GPU型(GPU-HPN)。

  • Pod的schedulerNamedefault-scheduler

  • 调度器组件配置未勾选开启GPU-HPN节点自定义标签、调度器

协议字段

含义

约束

labelSelector

用于查找匹配的Pod,匹配此标签的Pod将被统计,以确定相应拓扑域中Pod的数量。

其他计算类型(通用型、性能型、GPU型)的Pod在计算匹配数量时将不参与统计。

matchLabelKeys

配合labelSelector使用的标签键列表,用于选择需要计算分布方式的Pod集合。

nodeAffinityPolicy

表示在计算Pod拓扑分布偏差时将如何处理Pod的 nodeAffinity/nodeSelector。

不支持。

nodeTaintsPolicy

表示在计算Pod拓扑分布偏差时将如何处理节点污点。

不支持。

对于通用型、性能型和GPU型实例,可用区拓扑打散协议不存在以上约束。关于各字段详细信息的说明,请参见拓扑分布约束

操作步骤

  1. 执行以下命令查看集群中的虚拟节点。

    kubectl get node

    预期输出:

    NAME                            STATUS   ROLES   AGE     VERSION
    virtual-kubelet-cn-hangzhou-i   Ready    agent   5h42m   v1.28.3-xx
    virtual-kubelet-cn-hangzhou-j   Ready    agent   5h42m   v1.28.3-xx
  2. 使用以下YAML内容,创建dep-spread-demo.yaml文件。

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: dep-spread-demo
      labels:
        app: spread-demo
    spec:
      replicas: 4
      selector:
        matchLabels:
          app: spread-demo
      template:
        metadata:
          labels:
            app: spread-demo
        spec:
          containers:
          - name: spread-demo
            image: registry-cn-beijing.ack.aliyuncs.com/acs/stress:v1.0.4
            command:
            - "sleep"
            - "infinity"
          # 指定可用区打散条件,maxSkew指定了各可用区之间的Pod数量相差不能超过一个
          topologySpreadConstraints:
          - maxSkew: 1
            topologyKey: topology.kubernetes.io/zone
            whenUnsatisfiable: DoNotSchedule
            labelSelector:
              matchLabels:
                app: spread-demo
  3. 执行以下命令,将dep-spread-demo部署到集群。

    kubectl apply -f dep-spread-demo.yaml
  4. 执行以下命令,查看Pod调度的分布情况。

    kubectl get pod -o wide

    预期输出:

    NAME                               READY   STATUS    RESTARTS   AGE     IP               NODE                            NOMINATED NODE   READINESS GATES
    dep-spread-demo-7c656dbf5f-6twkc   1/1     Running   0          2m29s   192.168.xx.xxx   virtual-kubelet-cn-hangzhou-i   <none>           <none>
    dep-spread-demo-7c656dbf5f-cgxr8   1/1     Running   0          2m29s   192.168.xx.xxx   virtual-kubelet-cn-hangzhou-j   <none>           <none>
    dep-spread-demo-7c656dbf5f-f4fz9   1/1     Running   0          2m29s   192.168.xx.xxx   virtual-kubelet-cn-hangzhou-j   <none>           <none>
    dep-spread-demo-7c656dbf5f-kc6xf   1/1     Running   0          2m29s   192.168.xx.xxx   virtual-kubelet-cn-hangzhou-i   <none>           <none>

    可以看到4个Pod分布在2个可用区。