全部产品
Search
文档中心

容器服务 Kubernetes 版 ACK:节点池部署集最佳实践

更新时间:Apr 25, 2024

部署集是控制ECS实例分布的策略,该策略将ECS实例分散部署在不同的物理服务器上,提升业务的高可用性和底层容灾能力。通过为节点池指定部署集,能够保证节点池弹出的ECS实例不会分布于同一物理机上,并通过亲和性配置,使您的应用对底层的节点拓扑进行感知,使其均匀地分布在不同节点上,保证应用的容灾能力和高可用性。

前提条件

背景信息

在同一个可用区下,为了保证高可用性,您通常会选择跨主机部署服务。但当一台物理机出现问题时,会影响到应用的所有副本。为了解决这个问题,ECS提供了部署集功能。部署集内的所有ECS实例会在指定地域内严格分散在不同的物理服务器上,满足服务相互隔离的应用架构,大幅降低服务不可用的几率。关于部署集的更多信息,请参见部署集概述

使用限制

集群中功能使用须知

  • 部署集仅支持ACK专有集群ACK托管集群

  • 部署集仅在新建节点池时支持指定,不支持为已有节点池开启。每个节点池仅支持绑定一个部署集,且不支持更换。

  • 部署集不支持手动添加或移除节点。您可以通过扩缩容节点池的操作,调整部署集中的节点数。具体操作,请参见创建节点池

  • 开启部署集功能后,不支持创建抢占式实例。

部署集配额与规格限制

  • 节点池部署集默认基于高可用策略实现。更多信息,请参见部署集概述

    高可用策略:在部署集内创建ECS实例时,一个可用区内最多能创建20台ECS实例,一个阿里云地域下能创建的ECS实例数量为20 * 可用区数量

    一个部署集内能容纳的实例数量不支持提升。但如果您需要提高当前账户可拥有的部署集最大数量,请前往配额平台申请。关于部署集使用限制及配额的更多信息,请参见部署集使用限制

  • 部署集支持的实例规格族信息:

    说明

    部分规格族只支持特定的部署集策略,您可以调用DescribeDeploymentSetSupportedInstanceTypeFamily获取各种部署集策略支持的实例规格族信息。

    部署策略

    支持的实例规格族

    高可用策略和部署集组高可用策略

    • g8i、g8y、g7se、g7a、g7、g7t、g7ne、g7nex、g6、g6e、g6a、g5、g5ne、sn2ne、sn2、sn1

    • c8i、c8y、c7se、c7、c7t、c7nex、c7a、c6、c6a、c6e、c5、ic5、sn1ne

    • r8y、r7、r7se、r7t、r7a、r6、r6e、r6a、re6、re6p、r5、re4、se1ne、se1

    • hfc7、hfg7、hfr7、hfc6、hfg6、hfr6、hfc5、hfg5

    • d3c、d2s、d2c、d1、d1ne、d1-c14d3、d1-c8d3

    • i3g、i3、i2、i2g、i2ne、i2gne、i1

    • ebmg5、ebmc7、ebmg7、ebmr7、sccgn6、scch5、scch5s、sccg5、sccg5s

    • e、t6、xn4、mn4、n4、e4、n2、n1、

    • gn6i

    网络低时延策略

    • g8a、g8i、g8ae、g8y

    • c8a、c8i、c8ae、c8y

    • r8a、r8i、r8ae、r8y

    • ebmc7、ebmg7、ebmr7

  • 在部署集内创建ECS实例时,或者重启按量付费ECS实例(节省停机模式)时,供货紧缺依然会导致请求失败。更多信息,请参见按量付费实例节省停机模式

通过控制台为节点池指定部署集

  1. 登录容器服务管理控制台,在左侧导航栏选择集群

  2. 集群列表页面,单击目标集群名称,然后在左侧导航栏,选择节点管理 > 节点池

  3. 节点池页面右上角,单击创建节点池,然后在创建节点池对话框,配置参数,选择部署集,然后单击确认配置

    有关节点池配置项的详细说明,请参见创建节点池部署集.png

使用案例

服务在同一个节点池中,同一个应用的Pod之间反亲和,一个节点只能调度一个Pod

本示例介绍如何将Deployment中的三个Pod副本调度到三个不同节点上,操作步骤如下。

  1. 创建节点池包含三个节点,并为节点池指定部署集ID。具体操作,请参见通过控制台为节点池指定部署集

    创建节点池完成后,在节点池页面,单击目标节点,在节点管理页签,可以查看到成功创建的三个节点。部署集1.png

    登录ECS控制台,在左侧导航栏选择部署与弹性 > 部署集,在部署集页面,可以查看到节点池中的三个节点均属于所选的部署集。部署集2.png

  2. 使用以下示例内容,配置应用YAML。

    通过反亲和性配置三个应用Pod,将不同的Pod调度到节点池不同节点上。

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nginx
      labels:
        app: nginx
    spec:
      replicas: 3
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          name: nginx
          labels:
            app: nginx
        spec:
          affinity:
            podAntiAffinity:
              requiredDuringSchedulingIgnoredDuringExecution:  #设置调度策略。
              - labelSelector:
                  matchExpressions:
                  - key: app
                    operator: In
                    values:
                    - nginx
                topologyKey: kubernetes.io/hostname
          nodeSelector:
              alibabacloud.com/nodepool-id: <nodepool-id>  #指定节点池ID。
          containers:
          - name: nginx
            image: nginx
            resources:
              limits:
                cpu: 1
              requests:
                cpu: 1

    执行结果

    无状态页面,单击目标Deployment,在容器组页签,可以看到三个不同的Pod调度到节点池不同节点上。

服务在同一个节点池中,同一个应用的Pod之间按照可用区和节点均匀调度打散

  1. 创建节点池包含四个节点,为节点池指定部署集ID,并选择多可用区的VSwitch。具体操作,请参见通过控制台为节点池指定部署集

    创建完成后,在节点页面,可以查看到四个节点,并选择了四个可用区。根据ESS的均匀分布策略,弹出的ECS实例将分布在不同的四个可用区,且均加入了部署集。

    登录ECS控制台,在左侧导航栏选择部署与弹性 > 部署集,在部署集页面,可以查看到节点池中的四个节点均属于所选的部署集。

  2. 使用以下示例内容,配置应用YAML。

    通过Pod拓扑分布约束,将同一个应用的Pod之间按照可用区和节点均匀调度打散。更多信息,请参见Pod 拓扑分布约束

    apiVersion: apps/v1
    kind: Deployment
    metadata:
      name: nginx
      labels:
        app: nginx
    spec:
      replicas: 4
      selector:
        matchLabels:
          app: nginx
      template:
        metadata:
          name: nginx
          labels:
            app: nginx
        spec:
          topologySpreadConstraints:
            - maxSkew: 1
              topologyKey: kubernetes.io/hostname
              whenUnsatisfiable: DoNotSchedule
              labelSelector:
                  matchLabels:
                    app: nginx
            - maxSkew: 1
              topologyKey: topology.kubernetes.io/zone
              whenUnsatisfiable: DoNotSchedule
              labelSelector:
                  matchLabels:
                    app: nginx
          nodeSelector:
              alibabacloud.com/nodepool-id: <nodepool-id>  #指定节点池ID。
          containers:
          - name: nginx
            image: nginx
            resources:
              limits:
                cpu: 1
              requests:
                cpu: 1

    执行结果

    无状态页面,单击目标Deployment,在容器组页签,可以看到同一个应用的Pod之间按照可用区和节点已均匀调度打散。

相关文档