すべてのプロダクト
Search
ドキュメントセンター

Container Service for Kubernetes:ACK 専用クラスターの作成

最終更新日:Nov 09, 2025

Container Service for Kubernetes (ACK) では、ACK 専用クラスターを作成できます。ACK 専用クラスターには、高可用性を確保するために少なくとも 3 つのマスターノードが含まれている必要があります。また、クラスターには、詳細なインフラストラクチャ管理のためのワーカーノードも含まれている必要があります。ACK 専用クラスターは手動で作成、維持、更新する必要があります。このトピックでは、コンソール、API、Terraform、SDK、および CLI を使用して ACK 専用クラスターを作成する方法について説明します。

重要

Container Service for Kubernetes (ACK) は、2024 年 8 月 21 日 00:00:00 (GMT+8) 以降、ACK 専用クラスターの作成を廃止しました。より高い信頼性、セキュリティ、およびスケジューリング効率のために、本番環境では ACK Pro クラスターを使用することを推奨します。

準備

クラスターを作成する前に、ACK を有効化し、Alibaba Cloud アカウントまたは RAM ユーザーに ACK システムロールを割り当てていることを確認してください。さらに、VPC、Server Load Balancer (SLB)、NAT ゲートウェイなどのクラウドサービスを有効化していることを確認してください。詳細については、「ACK マネージドクラスターをすばやく作成する」をご参照ください。

説明

CLB などのサービスを従量課金方法で購入する場合、支払い遅延を避けるために Alibaba Cloud アカウントの残高が十分であることを確認してください。

クラスターの作成

ACK では、ACK コンソールで、API 操作を呼び出して、また SDK、Terraform、CLI を使用してクラスターを作成できます。

コンソール

ステップ 1: ACK コンソールにログインする

  1. ACK コンソールにログインします。左側のナビゲーションウィンドウで、[クラスター] をクリックします。

  2. ページ左上で、対象リソースが存在するリソースグループとリージョンを選択します。image

  3. [クラスター] ページで、[Kubernetes クラスターの作成] をクリックします。

ステップ 2: クラスターを設定する

[ACK 専用クラスター] タブをクリックし、基本設定、ネットワーク設定、および高度な設定を構成します。

基本設定

パラメーター

説明

クラスター名

クラスターのカスタム名。

リージョン

クラスターがデプロイされるリージョン。選択したリージョンがユーザーとデプロイされたリソースに近いほど、ネットワーク遅延が低くなり、アクセス速度が速くなります。

Kubernetes バージョン

サポートされている Kubernetes バージョン。最新バージョンを使用することを推奨します。詳細については、「ACK でサポートされている Kubernetes バージョン」をご参照ください。

ネットワーク設定

パラメーター

説明

Ipv6 デュアルスタック

IPv4/IPv6 デュアルスタックを有効にすると、デュアルスタッククラスターが作成されます。

重要
  • Kubernetes 1.22 以降を実行するクラスターのみがこの機能をサポートします。

  • ワーカーノードとコントロールプレーン間の通信には IPv4 アドレスが使用されます。

  • コンテナネットワークプラグインとして Terway を選択する必要があります。

  • Terway の共有 ENI モードを使用する場合、ECS インスタンスタイプは IPv6 アドレスをサポートする必要があります。指定されたタイプの ECS インスタンスをクラスターに追加するには、ECS インスタンスタイプがサポートする IPv4 アドレスの数と IPv6 アドレスの数が同じである必要があります。ECS インスタンスタイプの詳細については、「インスタンスファミリーの概要」をご参照ください。

  • クラスターが使用する VPC は、IPv4/IPv6 デュアルスタックをサポートする必要があります。

  • クラスターで eRDMA を使用する場合は、IPv4/IPv6 デュアルスタックを無効にする必要があります。

VPC

クラスターの VPC を構成します。[ゾーン] を指定して VPC を自動的に作成できます。VPC リストから既存の VPC を選択することもできます。

SNAT の設定

クラスターに共有 VPC を使用する場合は、このオプションを選択しないでください。

このチェックボックスを選択すると、ACK は新しく作成または選択された VPC に対して次の操作を実行します。

  • VPC に NAT ゲートウェイがない場合、NAT ゲートウェイが自動的に作成され、クラスターが使用するすべての vSwitch に対して vSwitch レベルの SNAT ルールが構成されます。

  • VPC にすでに NAT ゲートウェイがある場合:

    • VPC レベルの SNAT ルールがない場合、クラスターが使用するすべての vSwitch に対して vSwitch レベルの SNAT ルールが自動的に構成されます。

    • VPC レベルの SNAT ルールがすでに存在する場合、アクションは実行されません。

このチェックボックスを選択しない場合、クラスター作成後に手動で NAT ゲートウェイを構成し、SNAT ルールを構成して、VPC 内のインスタンスがインターネットにアクセスできるようにすることができます。詳細については、「インターネット NAT ゲートウェイの作成と管理」をご参照ください。

vSwitch

VSwitch リストから既存の vSwitch を選択するか、[VSwitch の作成] をクリックして vSwitch を作成します。コントロールプレーンとデフォルトのノードプールは、選択した vSwitch を使用します。高可用性を確保するために、異なるゾーンにある複数の vSwitch を選択することを推奨します。

セキュリティグループ

[VPC][既存を使用] に設定されている場合、[既存のセキュリティグループを選択] オプションを選択できます。

[基本セキュリティグループの作成][高度なセキュリティグループの作成]、または [既存のセキュリティグループの選択] を選択できます。

  • デフォルトでは、自動的に作成されたセキュリティグループはすべてのアウトバウンドトラフィックを許可します。ビジネス目的でセキュリティグループを変更する場合、100.64.0.0/10 CIDR ブロックからのインバウンドトラフィックが許可されていることを確認してください。この CIDR ブロックは、他の Alibaba Cloud サービスにアクセスしてイメージをプルしたり、基本的な ECS 情報をクエリしたりするために使用されます。

  • 既存のセキュリティグループを選択した場合、システムはセキュリティグループルールを自動的に構成しません。これにより、クラスター内のノードにアクセスする際にエラーが発生する可能性があります。セキュリティグループルールを手動で構成する必要があります。詳細については、「クラスターのセキュリティグループを構成する」をご参照ください。

API サーバーへのアクセス

API サーバーは、Pod や Service などのリソースオブジェクトを管理するためのさまざまな HTTP REST インターフェイスを提供します。これには、作成、読み取り、更新、削除、監視の操作が含まれます。

  • デフォルトでは、システムは API サーバー用に内部向け従量課金 CLB インスタンスを作成し、クラスター内の API サーバーの内部エンドポイントとして機能させます。

  • 既存の CLB インスタンスを使用するには、まず チケットを送信してホワイトリストアクセスをリクエストする必要があります。[既存を使用] [VPC] に設定した後、[ロードバランサーソース][既存を使用] に設定し、次に [既存の CLB インスタンスを選択] します。

[EIP で API サーバーを公開] するかどうかを指定します。

  • 公開: この機能を有効にすると、API サーバーを公開するために使用される内部向け CLB インスタンスに EIP が関連付けられます。これにより、インターネット経由でクラスターの API サーバーにアクセスできます。

  • 公開しない: EIP は作成されません。kubeconfig ファイルを使用して VPC 内からのみクラスターに接続し、クラスターを管理できます。

重要
  • デフォルトの CLB インスタンスを削除すると、API サーバーにアクセスできなくなります。

  • EIP を CLB インスタンスにバインドした後、API サーバーはパブリックネットワークからのリクエストを受信できます。ただし、クラスター内のリソースはパブリックネットワークにアクセスできません。クラスター内のリソースがパブリックネットワークにアクセスしてパブリックイメージをプルできるようにするには、[VPC の SNAT を構成] チェックボックスを選択します。

  • 2024 年 12 月 1 日以降、新しく作成された CLB インスタンスにはインスタンス料金が請求されます。詳細については、「CLB 課金調整」をご参照ください。

ネットワークプラグイン

Flannel と Terway がサポートされています。Terway と Flannel の比較の詳細については、「Terway と Flannel の比較」をご参照ください。

  • Flannel は、コミュニティによって提供されるオープンソースのネットワークプラグインです。Flannel は ACK で Alibaba Cloud の VPC (Virtual Private Cloud) を使用します。パケットは VPC ルートテーブルに基づいて転送されます。Flannel は、より小さなノード、簡素化されたネットワーク構成を必要とし、コンテナネットワークに対するカスタム制御の要件がないシナリオに適しています。

  • Terway は Alibaba Cloud が開発したネットワークプラグインです。このプラグインは、ENI (Elastic Network Interface) に基づいてネットワークを構築します。Terway は、eBPF (extended Berkeley Packet Filter) を使用してネットワークトラフィックを高速化することをサポートします。Terway は、ネットワークポリシーと Pod レベルのスイッチおよびセキュリティグループもサポートします。Terway は、高性能コンピューティング、ゲーム、および大規模なノード、高いネットワークパフォーマンスとセキュリティを必要とするマイクロサービスなどのシナリオに適しています。

    重要
    • Terway を選択した場合、ENI のセカンダリ IP アドレスが各 Pod に割り当てられます。ENI は複数の IP アドレスを割り当てることができます (インスタンスの仕様によります)。ノードにデプロイできる Pod の数は、ノードにアタッチされている ENI の数と、これらの ENI が提供するセカンダリ IP アドレスの最大数によって決まります。

    • クラスターに共有 VPC を選択した場合、ネットワークプラグインとして Terway を選択する必要があります。

    • Flannel を選択した場合、ALB Ingress は NodePort および LoadBalancer Service へのリクエスト転送のみをサポートし、ClusterIP Service はサポートしません。

    ネットワークプラグインパラメーターを Terway に設定すると、次のパラメーターを構成できます。

    • DataPathV2

      DataPath V2 加速モードは、クラスターを作成するときにのみ有効にできます。包括的な ENI モードで Terway の DataPath V2 加速モードを有効にすると、Terway は異なるトラフィック転送パスを採用してネットワーク通信を高速化します。詳細については、「ネットワークアクセラレーション」をご参照ください。

      説明
      • Kubernetes 1.34 以降のクラスターを作成し、DataPath V2 を選択した場合、kube-proxy は Terway ノードで実行されなくなります。

        • このモードはデフォルトで portmap をサポートします。portmap プラグインを構成する必要はありません。詳細については、「カスタム CNI チェーンの構成」をご参照ください。

      • DataPath V2 は、次のオペレーティングシステムイメージでのみサポートされ、Linux カーネル 5.10 以降が必要です。

        • Alibaba Cloud Linux 3 (すべてのバージョン)

        • ContainerOS

        • Ubuntu

      • この機能を有効にすると、Terway ポリシーコンテナは各ワーカーノードで追加の 0.5 CPU コアと 512 MB のメモリを消費することが予想されます。この消費量はクラスターサイズとともに増加します。Terway のデフォルト構成では、ポリシーコンテナの CPU 制限は 1 コアで、メモリ制限はありません。

      • DataPath V2 モードでは、コンテナネットワークの接続追跡 (conntrack) 情報が eBPF マップに保存されます。Linux のネイティブ conntrack メカニズムと同様に、eBPF conntrack は LRU (Least Recently Used) アルゴリズムを使用します。マップが容量制限に達すると、最も古い接続レコードが自動的にエビクションされ、新しい接続が保存されます。接続数が制限を超えないように、サービス規模に応じて関連パラメーターを構成する必要があります。詳細については、「Terway モードでの conntrack 構成の最適化」をご参照ください。

    • NetworkPolicy のサポート

      このオプションを選択すると、クラスターはネイティブの Kubernetes NetworkPolicy をサポートします。

      説明
      • Terway v1.9.2 以降、新しいクラスターの NetworkPolicy は eBPF によって実装され、データプレーンで DataPathv2 機能が有効になります。

      • コンソールで NetworkPolicy を管理する機能はパブリックプレビュー中です。この機能を使用するには、クォータセンターコンソールでリクエストを送信する必要があります。

    • ENI トランキングのサポート

      Terway Trunk ENI 機能を使用すると、各 Pod に静的 IP アドレス、個別の vSwitch、および個別のセキュリティグループを指定できます。これにより、ユーザートラフィックの管理と分離、ネットワークポリシーの構成、および IP アドレスのきめ細かな管理が可能になります。詳細については、「Pod の静的 IP アドレス、個別の vSwitch、および個別のセキュリティグループを構成する」をご参照ください。

      説明
      • ACK マネージドクラスターはリクエストを送信せずにトランク ENI オプションを使用できます。ACK 専用クラスターでトランク ENI を有効にする場合は、クォータセンターコンソールでリクエストを送信する必要があります。

      • Kubernetes 1.31 以降では、新しい ACK マネージドクラスターに対してトランク ENI 機能が自動的に有効になります。このオプションを手動で選択する必要はありません。

コンテナー CIDR ブロック

ネットワークプラグインとして Flannel を選択した場合にのみ、このパラメーターを構成します。

[コンテナ CIDR ブロック] は、VPC の CIDR ブロック、VPC 内の ACK クラスターの CIDR ブロック、または Service CIDR ブロックと重複してはなりません。コンテナ CIDR ブロックは、指定後に変更することはできません。クラスターの CIDR ブロックを計画する方法の詳細については、「ACK マネージドクラスターのネットワーク計画」をご参照ください。

ノードあたりのポッド数

ネットワークプラグインとして Flannel を選択した場合にのみ、このパラメーターを構成します。

単一ノードに格納できる Pod の最大数。

ポッド Vswitch

ネットワークプラグインとして Terway を選択した場合にのみ、このパラメーターを構成します。

Pod に IP アドレスを割り当てるために使用される vSwitch。各 Pod vSwitch はワーカーノードの vSwitch に対応します。Pod の vSwitch とワーカーノードの vSwitch は同じゾーンにある必要があります。

重要

Pod vSwitch の CIDR ブロックのサブネットマスクは 19 ビット以下に設定することを推奨しますが、サブネットマスクは 25 ビットを超えてはなりません。そうしないと、クラスターネットワークには Pod に割り当てることができる IP アドレスが限られてしまい、結果としてクラスターが期待どおりに機能しない可能性があります。

サービス CIDR

Service CIDR は、クラスター内の Service に IP アドレスを割り当てるための専用のネットワークアドレス範囲です。この CIDR ブロックは、VPC の CIDR ブロック、VPC 内の既存の ACK クラスターの CIDR ブロック、またはコンテナ CIDR ブロックと重複してはなりません。クラスターの CIDR ブロックを計画する方法の詳細については、「ACK マネージドクラスターのネットワーク計画」をご参照ください。

Ipv6 サービス CIDR ブロック

IPv4/IPv6 デュアルスタックを有効にした場合にのみ、このパラメーターを構成します。

Service 用に IPv6 CIDR ブロックを構成します。アドレス範囲 fc00::/7 内のユニークローカルユニキャストアドレス (ULA) 空間を指定する必要があります。プレフィックスは 112 ビットから 120 ビットの長さでなければなりません。Service CIDR ブロックと同じ数の利用可能な IP アドレスを持つ IPv6 CIDR ブロックを指定することを推奨します。

クラスターの CIDR ブロックを計画する方法の詳細については、「ACK マネージドクラスターのネットワーク計画」をご参照ください。

高度な設定

[高度なオプションを表示] をクリックして、クラスターの転送モードを構成します。

パラメーター

説明

転送モード

iptables と IPVS がサポートされています。

  • iptables は、成熟し安定した kube-proxy モードです。このモードでは、Kubernetes Service のサービス検出とロードバランシングが iptables ルールを使用して構成されます。このモードのパフォーマンスは Kubernetes クラスターのサイズに依存します。このモードは、少数の Service を管理する Kubernetes クラスターに適しています。

  • IPVS は、高性能な kube-proxy モードです。このモードでは、Kubernetes Service のサービス検出とロードバランシングが Linux の IPVS モジュールによって構成されます。このモードは、多数の Service を管理するクラスターに適しています。高性能なロードバランシングが必要なシナリオでこのモードを使用することを推奨します。

[高度なオプションを表示] をクリックして、クラスターの削除保護やリソースグループなどの高度な設定を構成します。

高度な設定を表示

パラメーター

説明

削除保護

クラスターが誤ってリリースされるのを防ぐために、コンソールまたは OpenAPI を使用して削除保護を有効にすることを推奨します。

リソースグループ

クラスターが属するリソースグループ。各リソースは 1 つのリソースグループにのみ属することができます。ビジネスシナリオに基づいて、リソースグループをプロジェクト、アプリケーション、または組織と見なすことができます。

ラベル

クラスターにラベルを追加します。ラベルはクラウドリソースを識別するために使用されます。ラベルはキーと値のペアです。

タイムゾーン

クラスターのタイムゾーン。デフォルトでは、ブラウザのタイムゾーンが選択されます。

クラスタードメイン

クラスタードメインを構成します。デフォルトのドメイン名は cluster.local です。カスタムドメイン名を入力できます。クラスタードメインは、クラスター内のすべての Service で使用されるトップレベルドメイン名 (標準サフィックス) です。たとえば、デフォルトの名前空間にある my-service という名前の Service の DNS 名は my-service.default.svc.cluster.local です。

カスタムドメイン名を指定する際の注意事項の詳細については、「クラスタードメイン (ClusterDomain) を構成する際に注意すべきことは何ですか?」をご参照ください。

カスタム証明書 SAN

クラスターの API サーバー証明書にカスタムのサブジェクト代替名 (SAN) を入力して、指定された IP アドレスまたはドメイン名からのリクエストを受け入れることができます。これにより、クライアントからのアクセスを制御できます。詳細については、「ACK クラスター作成時に API サーバー証明書の SAN をカスタマイズする」をご参照ください。

サービスアカウントトークンボリュームプロジェクション

ACK は、Pod がサービスアカウントを使用して Kubernetes API サーバーにアクセスする際のセキュリティリスクを軽減するために、[サービスアカウントトークンのボリューム投影] を提供します。この機能により、kubelet は Pod の代わりにトークンを要求して保存できます。また、この機能により、オーディエンスや有効期間などのトークンプロパティを構成できます。詳細については、「ServiceAccount トークンボリューム投影の使用」をご参照ください。

ノードポート範囲

NodePort Service を作成する際に利用可能なポートの範囲。

クラスター CA

このチェックボックスを選択すると、サーバーとクライアント間のデータ送信を保護するために、クラスターの認証局 (CA) 証明書をアップロードします。

ステップ 3: マスターノードを設定する

[次へ: マスター設定] をクリックして、マスターノードを設定します。

パラメーター

説明

マスターノード数

選択したゾーンにデプロイするマスターノードの数を指定します。

課金方法

これらの課金方法がサポートされています: 従量課金 および サブスクリプション[サブスクリプション] を選択した場合、[期間] パラメーターを構成し、[自動更新] を有効にするかどうかを選択する必要があります。

インスタンスタイプ

マスターノードのインスタンスファミリーを選択します。詳細については、「マスターノードを作成するための ECS 仕様の選択」をご参照ください。

システムディスク

ESSD AutoPLESSDESSD Entry標準 SSD、および Ultra Disk がサポートされています。選択できるシステムディスクの種類は、選択したインスタンスファミリーによって異なります。ドロップダウンリストに表示されないディスクタイプは、選択したインスタンスタイプではサポートされていません。

ESSD カスタムパフォーマンスと暗号化

  • [ESSD] を選択した場合、カスタムパフォーマンスレベルを設定できます。より大きなストレージ容量を持つ ESSD には、より高いパフォーマンスレベル (PL) を選択できます。たとえば、460 GiB 以上のストレージ容量を持つ ESSD には PL 2 を選択できます。1,260 GiB 以上のストレージ容量を持つ ESSD には PL 3 を選択できます。詳細については、「容量と PL」をご参照ください。

  • [暗号化] は、システムディスクタイプを [ESSD] に設定した場合にのみ選択できます。デフォルトでは、[デフォルトサービス CMK] がシステムディスクの暗号化に使用されます。KMS で Bring-Your-Own-Key (BYOK) を使用して生成された既存の CMK を使用することもできます。

[より多くのシステムディスクタイプを構成] を選択して、[システムディスク] とは異なるディスクタイプを構成し、スケールアウトの成功率を向上させることができます。インスタンスが作成される際、システムは指定されたディスクタイプの順序に基づいて最初に一致するディスクタイプを選択してインスタンスを作成します。

デプロイメントセット

ECS コンソールでデプロイメントセットを作成し、ACK コンソールでコントロールプレーンノードのデプロイメントセットを選択できます。

ステップ 4: ノードプールを設定する

[次へ: ノードプール設定] をクリックして、ノードプールの基本設定と高度な設定を構成します。

ノードプールの基本設定

パラメーター

説明

ノードプールの名前

ノードプール名を指定します。

コンテナランタイム

Kubernetes のバージョンに基づいて [コンテナランタイム] を指定します。コンテナランタイムの選択方法の詳細については、「containerd、Sandboxed-Container、Docker の比較」をご参照ください。

  • containerd (推奨): すべての Kubernetes バージョンをサポートします。

  • Sandboxed-Container: Kubernetes 1.31 以前をサポートします。

  • Docker (非推奨): Kubernetes 1.22 以前をサポートします。

インスタンスとイメージの設定

パラメーター

説明

課金方法

ノードプールで ECS インスタンスがスケーリングされるときに使用されるデフォルトの課金方法。[従量課金][サブスクリプション]、または [スポットインスタンス] を選択できます。

  • [サブスクリプション] 課金方法を選択した場合、[期間] パラメーターを構成し、[自動更新] を有効にするかどうかを選択する必要があります。

  • [スポットインスタンス]: 現在、保護期間付きの [スポットインスタンス] のみがサポートされています。また、[インスタンスあたりの最大価格] を構成する必要があります。

    選択したインスタンスタイプのリアルタイム市場価格がこのパラメーターの値より低い場合、このインスタンスタイプのスポットインスタンスが作成されます。保護期間 (1 時間) が終了すると、システムは 5 分ごとにインスタンスタイプのスポット価格とリソースの可用性をチェックします。リアルタイム市場価格が入札価格を超えた場合、またはリソース在庫が不足している場合、スポットインスタンスは解放されます。詳細については、「スポットインスタンスベースのノードプールのベストプラクティス」をご参照ください。

ノードプール内のすべてのノードが同じ課金方法を使用するようにするため、ACK はノードプールの課金方法を [従量課金] または [サブスクリプション] から [スポットインスタンス] へ、または [スポットインスタンス] から [従量課金] または [サブスクリプション] へ変更することを許可しません。

インスタンス関連のパラメーター

インスタンスタイプまたは属性に基づいてワーカーノードプールが使用する ECS インスタンスを選択します。vCPU、メモリ、インスタンスファミリー、アーキテクチャなどの属性でインスタンスファミリーをフィルタリングできます。ACK でサポートされていないインスタンス仕様とノードの構成方法の詳細については、「ECS インスタンスタイプの推奨事項」をご参照ください。

ノードプールがスケールアウトされると、選択したインスタンスタイプの ECS インスタンスが作成されます。ノードプールのスケーリングポリシーによって、スケールアウトアクティビティ中に新しいノードを作成するために使用されるインスタンスタイプが決まります。ノードプールのスケールアウト操作の成功率を向上させるために、複数のインスタンスタイプを選択します。

インスタンスタイプが利用できない、またはインスタンスが在庫切れのためにノードプールがスケールアウトに失敗した場合、ノードプールに追加のインスタンスタイプを指定できます。ACK コンソールは、ノードプールのスケーラビリティを自動的に評価します。ノードプールを作成するとき、またはノードプールを作成した後に、ノードプールのスケーラビリティを確認できます。

オペレーティングシステム

説明

オペレーティングシステムのアップグレードまたは変更方法の詳細については、「OS の変更」をご参照ください。

セキュリティ強化

クラスターのセキュリティ強化を有効にします。このパラメーターはクラスター作成後に変更できません。

  • [無効]: ECS インスタンスのセキュリティ強化を無効にします。

  • [MLPS セキュリティ強化]: Alibaba Cloud は、Alibaba Cloud Linux 2 イメージと Alibaba Cloud Linux 3 イメージが MLPS 2.0 のレベル 3 基準に準拠しているかを確認するためのベースラインとベースラインチェック機能を提供します。MLPS セキュリティ強化は、OS イメージの互換性とパフォーマンスを損なうことなく、GB/T 22239-2019 情報セキュリティ技術 - サイバーセキュリティの分類保護のためのベースラインの要件を満たすために OS イメージのセキュリティを強化します。詳細については、「MLPS に基づく ACK セキュリティ強化」をご参照ください。

    重要

    MLPS セキュリティ強化を有効にすると、root ユーザーの SSH によるリモートログインが禁止されます。ECS コンソールから VNC (Virtual Network Computing) を使用して OS にログインし、SSH によるログインが許可される一般ユーザーを作成できます。詳細については、「VNC を使用してインスタンスに接続する」をご参照ください。

  • [OS セキュリティ強化]: システムイメージが Alibaba Cloud Linux 2 または Alibaba Cloud Linux 3 イメージである場合にのみ、Alibaba Cloud OS セキュリティ強化を有効にできます。

ログオンタイプ

  • [キーペア]: Alibaba Cloud SSH キーペアは、ECS インスタンスに安全かつ便利にログインする方法を提供します。SSH キーペアは、公開鍵と秘密鍵で構成されます。SSH キーペアは Linux インスタンスのみをサポートします。

    [ユーザー名] ([root] または [ecs-user] をユーザー名として選択) と [キーペア] パラメーターを構成します。

  • [パスワード]: パスワードは 8 ~ 30 文字の長さで、文字、数字、特殊文字を含めることができます。

    [ユーザー名] ([root] または [ecs-user] をユーザー名として選択) とパスワードパラメーターを構成します。

ボリューム設定

パラメーター

説明

システムディスク

ESSD AutoPLESSDESSD Entry標準 SSD、および Ultra Disk がサポートされています。選択できるシステムディスクの種類は、選択したインスタンスファミリーによって異なります。ドロップダウンリストに表示されないディスクタイプは、選択したインスタンスタイプではサポートされていません。

ESSD カスタムパフォーマンスと暗号化

  • [ESSD] を選択した場合、カスタムパフォーマンスレベルを設定できます。より大きなストレージ容量を持つ ESSD には、より高いパフォーマンスレベル (PL) を選択できます。たとえば、460 GiB 以上のストレージ容量を持つ ESSD には PL 2 を選択できます。1,260 GiB 以上のストレージ容量を持つ ESSD には PL 3 を選択できます。詳細については、「容量と PL」をご参照ください。

  • [暗号化] は、システムディスクタイプを [ESSD] に設定した場合にのみ選択できます。デフォルトでは、[デフォルトサービス CMK] がシステムディスクの暗号化に使用されます。KMS で Bring-Your-Own-Key (BYOK) を使用して生成された既存の CMK を使用することもできます。

[より多くのシステムディスクタイプを構成] を選択して、[システムディスク] とは異なるディスクタイプを構成し、スケールアウトの成功率を向上させることができます。インスタンスが作成される際、システムは指定されたディスクタイプの順序に基づいて最初に一致するディスクタイプを選択してインスタンスを作成します。

データディスク

ESSD AutoPLESSDESSD Entry、および旧世代のディスク (標準 SSD および Ultra Disk) がサポートされています。選択できるデータディスクの種類は、選択したインスタンスファミリーによって異なります。ドロップダウンリストに表示されないディスクタイプは、選択したインスタンスタイプではサポートされていません。

ESSD AutoPL ディスク

  • パフォーマンスプロビジョニング: パフォーマンスプロビジョニング機能を使用すると、ESSD AutoPL ディスクのプロビジョニング済みパフォーマンス設定を構成して、ディスクを拡張することなくベースラインパフォーマンスを超えるストレージ要件を満たすことができます。

  • パフォーマンスバースト: パフォーマンスバースト機能により、ESSD AutoPL ディスクは、読み書きワークロードの急増時にパフォーマンスをバーストさせ、ワークロードの急増の終わりにパフォーマンスをベースラインレベルに低下させることができます。

ESSD サポート

カスタムパフォーマンスレベルを構成します。より大きなストレージ容量を持つ ESSD には、より高い PL を選択できます。たとえば、460 GiB 以上のストレージ容量を持つ ESSD には PL 2 を選択できます。1,260 GiB 以上のストレージ容量を持つ ESSD には PL 3 を選択できます。詳細については、「容量と PL」をご参照ください。

  • データディスクの種類を指定する際に、すべてのディスクタイプで [暗号化] を選択できます。デフォルトでは、[デフォルトサービス CMK] がデータディスクの暗号化に使用されます。KMS で BYOK を使用して生成された既存の CMK を使用することもできます。

  • コンテナイメージの高速化や大規模言語モデル (LLM) の高速読み込みが必要なシナリオでは、スナップショットを使用してデータディスクを作成することもできます。これにより、システムの応答速度が向上し、処理能力が強化されます。

  • ノード作成中、最後のデータディスクは自動的にフォーマットされます。システムはこのディスクに /var/lib/container をマウントし、/var/lib/kubelet/var/lib/containerd/var/lib/container にマウントします。カスタムマウントポイントを変更するには、データディスクの初期化構成を変更します。コンテナランタイムディレクトリとして選択できるデータディスクは 1 つだけです。使用方法については、「ACK ノードプールでデータディスクをカスタムディレクトリにマウントできますか?」をご参照ください。

説明

より多くのデータディスクタイプを構成 を選択して、[データディスク] とは異なるディスクタイプを構成し、スケールアウトの成功率を向上させることができます。インスタンスが作成される際、システムは指定されたディスクタイプの順序に基づいて最初に一致するディスクタイプを選択してインスタンスを作成します。

インスタンス設定

パラメーター

説明

期待されるノード数

ノードプール内の期待されるノード数。クラスターコンポーネントが期待どおりに実行されるように、少なくとも 2 つのノードを構成することを推奨します。期待されるノード数パラメーターを構成して、ノードプール内のノード数を調整できます。詳細については、「ノードプールのスケーリング」をご参照ください。

ノードプールにノードを作成したくない場合は、このパラメーターを 0 に設定します。後でこのパラメーターを手動で変更してノードを追加できます。

ノードプールの高度な設定

[高度なオプション (オプション)] をクリックして、スケーリングポリシーを構成します。

パラメーター

説明

スケーリングポリシー

  • [優先度]: システムは、ノードプールに選択した vSwitch の優先度に基づいてノードプールをスケーリングします。選択したものは優先度の降順で表示されます。Auto Scaling が最も優先度の高い vSwitch のゾーンで ECS インスタンスを作成できなかった場合、Auto Scaling は次に優先度の高い vSwitch のゾーンで ECS インスタンスを作成しようとします。

  • [コスト最適化]: システムは vCPU ユニット価格の昇順でインスタンスを作成します。

    ノードプールの [課金方法][スポットインスタンス] に設定されている場合、そのようなインスタンスが優先的に作成されます。[従量課金インスタンスの割合] パラメーターを設定することもできます。在庫不足などの理由でスポットインスタンスを作成できない場合、補足として従量課金インスタンスが自動的に作成されます。

  • [分散バランシング]: 均等分散ポリシーは、複数の vSwitch を選択した場合にのみ有効になります。このポリシーは、ECS インスタンスがスケーリンググループのゾーン (vSwitch) 間で均等に分散されることを保証します。在庫不足などの理由で不均等に分散された場合、リバランス操作を実行できます。

プリエンプティブルインスタンスを補完するために従量課金インスタンスを使用する

課金方法パラメーターをスポットインスタンスに設定する必要があります。

この機能を有効にすると、価格や在庫の制約により十分なスポットインスタンスを作成できない場合、ACK は自動的に従量課金インスタンスを作成して、必要な ECS インスタンス数を満たします。

補足的なスポットインスタンスを有効にする

課金方法パラメーターをスポットインスタンスに設定する必要があります。

この機能を有効にすると、システムがスポットインスタンスが回収されるというメッセージを受信したとき (回収の 5 分前)、ACK は補償として新しいインスタンスをスケールアウトしようとします。

補償が成功した場合、ACK は古いノードをドレインし、クラスターから削除します。補償が失敗した場合、ACK は古いノードをドレインしません。スポットインスタンスの積極的な解放は、サービスの中断を引き起こす可能性があります。補償失敗後、在庫が利用可能になるか、価格条件が満たされると、ACK は自動的にインスタンスを購入して、期待されるノード数を維持します。詳細については、「スポットインスタンスベースのノードプールのベストプラクティス」をご参照ください。

補償の成功率を向上させるために、同時に [スポットインスタンスが不足している場合に Pay-as-you-go インスタンスを使用する] を有効にすることを推奨します。

[高度なオプション (オプション)] をクリックして、ECS ラベルや Taint などの高度な設定を構成します。

パラメーター

説明

ECS タグ

自動スケーリング中に自動的に追加される ECS インスタンスにタグを追加します。ECS インスタンスには最大 20 個のタグを付けることができます。クォータ制限を増やすには、クォータセンターコンソールで申請を送信してください。以下のタグは ACK と Auto Scaling によって ECS ノードに自動的に追加されるため、ECS ノードには最大 17 個のタグを追加できます。

  • 以下の 2 つの ECS タグは ACK によって追加されます:

    • ack.aliyun.com:<クラスター ID>

    • ack.alibabacloud.com/nodepool-id:<ノードプール ID>

  • 以下のラベルは Auto Scaling によって追加されます: acs:autoscaling:scalingGroupId:<ノードプールスケーリンググループ ID>

説明
  • 自動スケーリングを有効にすると、デフォルトで以下の ECS タグがノードプールに追加されます: k8s.io/cluster-autoscaler:true および k8s.aliyun.com:true

  • 自動スケーリングコンポーネントは、ノードラベルと Taint に基づいてスケールアウトアクティビティをシミュレートします。この目的を達成するために、ノードラベルのフォーマットは k8s.io/cluster-autoscaler/node-template/label/ラベルキー:ラベル値 に変更され、Taint のフォーマットは k8s.io/cluster-autoscaler/node-template/taint/Taint キー/Taint 値:Taint 効果 に変更されます。

Taint

ノードに Taint を追加します。[Taint][キー][値]、および [効果] で構成されます。Taint キーにはプレフィックスを付けることができます。プレフィックス付きの Taint キーを指定する場合は、プレフィックスとキーの残りの部分の間にスラッシュ (/) を追加します。詳細については、「Taint と Toleration」をご参照ください。Taint には以下の制限が適用されます:

  • [キー]: キーは 1 ~ 63 文字の長さで、文字、数字、ハイフン (-)、アンダースコア (_)、およびピリオド (.) を含めることができます。キーは文字または数字で始まり、終わる必要があります。[a-z0-9A-Z]

    プレフィックス付きのキーを指定する場合、プレフィックスは DNS サブドメイン名でなければなりません。サブドメイン名はピリオド (.) で区切られた DNS ラベルで構成され、253 文字を超えることはできません。スラッシュ (/) で終わる必要があります。DNS サブドメイン名の詳細については、「DNS サブドメイン名」をご参照ください。

  • [値]: 値は 63 文字を超えることはできず、文字、数字、ハイフン (-)、アンダースコア (_)、およびピリオド (.) を含めることができます。値は文字または数字で始まり、終わる必要があります。値を空にすることもできます。[a-z0-9A-Z]

  • Taint には以下の [効果] を指定できます: NoScheduleNoExecute、および PreferNoSchedule

    • [NoSchedule]: ノードに [効果][NoSchedule] の Taint がある場合、システムは Pod をそのノードにスケジュールしません。

    • [NoExecute]: この Taint を許容しない Pod は、この Taint がノードに追加された後にエビクションされます。この Taint を許容する Pod は、この Taint がノードに追加された後もエビクションされません。

    • [PreferNoSchedule]: システムは、Pod が許容しない Taint を持つノードへの Pod のスケジューリングを避けようとします。

ノードラベル

ノードにラベルを追加します。ラベルはキーと値のペアです。ラベルキーにはプレフィックスを付けることができます。プレフィックス付きのラベルキーを指定する場合は、プレフィックスとキーの残りの部分の間にスラッシュ (/) を追加します。ラベルには以下の制限が適用されます:

  • キー: 名前は 1 ~ 63 文字の長さで、文字、数字、ハイフン (-)、アンダースコア (_)、およびピリオド (.) を含めることができます。文字または数字で始まり、終わる必要があります。[a-z0-9A-Z]

    プレフィックス付きのラベルキーを指定する場合、プレフィックスはサブドメイン名でなければなりません。サブドメイン名はピリオド (.) で区切られた DNS ラベルで構成され、253 文字を超えることはできません。スラッシュ (/) で終わる必要があります。

    以下のプレフィックスは主要な Kubernetes コンポーネントによって使用されるため、ノードラベルでは使用できません:

    • kubernetes.io/

    • k8s.io/

    • kubernetes.io/ または k8s.io/ で終わるプレフィックス。例: test.kubernetes.io/

      以下は例外です:

      • kubelet.kubernetes.io/

      • node.kubernetes.io

      • kubelet.kubernetes.io/ で終わるプレフィックス。

      • node.kubernetes.io で終わるプレフィックス。

  • 値: 値は 63 文字を超えることはできず、文字、数字、ハイフン (-)、アンダースコア (_)、およびピリオド (.) を含めることができます。値は文字または数字で始まり、終わる必要があります。値を空にすることもできます。[a-z0-9A-Z]

スケジュール不可に設定

このオプションを選択すると、クラスターに追加された新しいノードはスケジュール不可に設定されます。ノードリストでステータスを変更できます。この設定は、ノードプールに新しく追加されたノードにのみ有効で、既存のノードには有効ではありません。

CPU ポリシー

kubelet ノードのCPU 管理ポリシー

  • None: デフォルトのポリシー。

  • Static: このポリシーにより、ノード上の特定のリソース特性を持つ Pod に、強化された CPU アフィニティと排他性が付与されます。

カスタムノード名

[カスタムノード名] を有効にするかどうかを指定します。この機能を有効にすると、ノード名、ECS インスタンス名、ECS インスタンスのホスト名が同時に変更されます。

説明

カスタムノード名を持つ Windows インスタンスの場合、そのホスト名は IP アドレスに固定されます。IP アドレスのピリオド (.) はハイフン (-) に置き換えられ、プレフィックスやサフィックスは含まれません。

ノード名は、プレフィックス、ノードの IP アドレス、およびサフィックスで構成されます:

  • カスタムノード名は 2 ~ 64 文字の長さでなければなりません。名前は小文字または数字で始まり、終わる必要があります。

  • プレフィックスとサフィックスには、文字、数字、ハイフン (-)、およびピリオド (.) を含めることができます。プレフィックスとサフィックスは文字で始まり、ハイフン (-) またはピリオド (.) で終わることはできません。プレフィックスとサフィックスには、連続するハイフン (-) またはピリオド (.) を含めることはできません。

  • プレフィックスは ECS の制限により必須であり、サフィックスはオプションです。

たとえば、ノードの IP アドレスが 192.XX.YY.55、プレフィックスが aliyun.com、サフィックスが test の場合。

  • ノードが Linux ノードの場合、ノード名、ECS インスタンス名、ECS インスタンスのホスト名はすべて aliyun.com192.XX.YY.55test です。

  • ノードが Windows ノードの場合、ECS インスタンスのホスト名は 192-XX-YY-55 で、ノード名と ECS インスタンス名は aliyun.com192.XX.YY.55test です。

事前定義されたカスタムデータ

この機能を使用するには、クォータセンターコンソールで申請を送信してください。

ノードは、クラスターに追加される前に、事前定義されたスクリプトを自動的に実行します。ユーザーデータスクリプトの詳細については、「ユーザーデータスクリプト」をご参照ください。

たとえば、echo "hello world" と入力すると、ノードは次のスクリプトを実行します:

#!/bin/bash
echo "hello world"
[ノード初期化スクリプト]

ユーザーデータ

ノードは、クラスターに追加された後、ユーザーデータスクリプトを自動的に実行します。ユーザーデータスクリプトの詳細については、「ユーザーデータスクリプト」をご参照ください。

たとえば、echo "hello world" と入力すると、ノードは次のスクリプトを実行します:

#!/bin/bash
[ノード初期化スクリプト]
echo "hello world"
説明

クラスターを作成したり、ノードを追加したりした後、ノードでのユーザーデータスクリプトの実行が失敗することがあります。ノードにログインし、grep cloud-init /var/log/messages コマンドを実行して実行ログを表示し、ノードでの実行が成功したか失敗したかを確認することを推奨します。

Cloudmonitor エージェント

CloudMonitor をインストールした後、CloudMonitor コンソールでノードの監視情報を表示できます。

このパラメーターは新しく追加されたノードにのみ有効で、既存のノードには有効ではありません。既存の ECS ノードに CloudMonitor エージェントをインストールする場合は、CloudMonitor コンソールに移動してください。

パブリック IP

各ノードに IPv4 アドレスを割り当てるかどうかを指定します。チェックボックスをオフにすると、パブリック IP アドレスは割り当てられません。チェックボックスをオンにした場合は、[帯域幅課金方法][ピーク帯域幅] パラメーターを構成する必要があります。

このパラメーターは新しく追加されたノードにのみ有効で、既存のノードには有効ではありません。既存のノードがインターネットにアクセスできるようにするには、EIP を作成し、その EIP をノードに関連付ける必要があります。詳細については、「EIP を ECS インスタンスに関連付ける」をご参照ください。

カスタムセキュリティグループ

[基本セキュリティグループ] または [高度なセキュリティグループ] を選択できますが、選択できるセキュリティグループタイプは 1 つだけです。ノードプールのセキュリティグループを変更したり、セキュリティグループのタイプを変更したりすることはできません。セキュリティグループの詳細については、「概要」をご参照ください。

重要
  • 各 ECS インスタンスは最大 5 つのセキュリティグループをサポートします。クォータが十分であることを確認してください。ECS インスタンスのセキュリティグループの制限とクォータ制限を増やす方法の詳細については、「セキュリティグループ」をご参照ください。

  • 既存のセキュリティグループを選択した場合、システムはセキュリティグループルールを自動的に構成しません。これにより、クラスター内のノードにアクセスする際にエラーが発生する可能性があります。セキュリティグループルールを手動で構成する必要があります。セキュリティグループルールの管理方法の詳細については、「ACK クラスターのアクセス制御を強制するためのセキュリティグループルールの構成」をご参照ください。

RDS ホワイトリスト

RDS インスタンスのホワイトリストにノード IP アドレスを追加します。

ステップ 5: コンポーネントを設定する

[次へ: コンポーネント設定] をクリックして、コンポーネントを設定します。

パラメーター

説明

Ingress

Ingress コントローラーをインストールするかどうかを指定します。Service を公開する場合は、Ingress コントローラーをインストールすることを推奨します。

サービスディスカバリ

NodeLocal DNSCache をインストールします。これにより、DNS キャッシングエージェントが実行され、DNS 解決のパフォーマンスと安定性が向上します。

ボリュームプラグイン

デフォルトでは、CSI がボリュームプラグインとしてインストールされます。[デフォルトの NAS ファイルシステムと CNFS 動的ストレージクラスを作成し、デフォルトで NAS ごみ箱機能を有効にして高速なデータ復旧をサポートする] を有効にすることもできます。ACK は Alibaba Cloud ディスク、NAS ファイルシステム、および OSS バケットをサポートします。

コンテナの監視

Managed Service for Prometheus を使用して、事前定義されたダッシュボードとパフォーマンスメトリックを表示できます。詳細については、「Managed Service for Prometheus」をご参照ください。

Log Service

既存の SLS プロジェクトを選択するか、プロジェクトを作成してクラスターログを収集できます。アプリケーション作成時に SLS を迅速に構成する方法の詳細については、「Simple Log Service を使用してコンテナからログデータを収集する」をご参照ください。

  • [Ingress ダッシュボードの作成]: SLS コンソールに Ingress ダッシュボードを作成して、NGINX Ingress のアクセスログを収集します。詳細については、「NGINX Ingress のアクセスログを分析および監視する」をご参照ください。

  • [Node-problem-detector をインストールし、イベントセンターを作成する]: SLS コンソールにイベントセンターを追加して、クラスター内のすべてのイベントをリアルタイムで収集します。詳細については、「イベントセンターの作成と使用」をご参照ください。

クラスタ検査

インテリジェントな O&M のためのクラスター検査機能を有効にするかどうかを指定します。この機能を有効にすると、クラスターのリソースクォータ、リソース使用量、およびコンポーネントのバージョンを定期的にチェックし、クラスター内の潜在的なリスクを特定できます。

ステップ 6: 設定を確認する

[次へ: 注文の確認] をクリックします。

[注文の確認] ステップで、機能設定、リソース課金、クラウドサービス依存関係チェックなどのクラスター設定を確認します。サービス利用規約を読み、同意します。

作成ページの下部で、クラスターの課金詳細を表示できます。ACK および関連サービスの課金の詳細については、「課金の概要」および「クラウドリソース料金」をご参照ください。

説明

複数のノードを持つクラスターの作成には約 10 分かかります。

[確認] ステップで、左上隅の [Console-to-Code] をクリックして、現在のクラスターの構成に一致する Terraform または SDK のサンプルパラメーターを作成することもできます。

API

デバッグ

CreateCluster デバッグエントリ

リクエストの例

以下は、ACK 専用クラスターを作成するためのリクエストの例です。完全なパラメーターの説明については、「CreateCluster」をご参照ください。

POST /clusters 
<Common request headers>
{
    "cluster_type": "Kubernetes",    // クラスタータイプを ACK 専用クラスターとして指定します。(必須)
    "name": "ACK Dedicated Cluster",
    "region_id": "cn-hongkong",      // クラスターが存在するリージョンは香港です。(必須)
    "kubernetes_version": "1.32.1-aliyun.1",    // 作成するクラスターのバージョン。(最新を推奨) 
    "snat_entry": true,                         // クラスターがデプロイされている VPC (Virtual Private Cloud) のソースネットワークアドレス変換 (SNAT) ルールを構成して、パブリックアクセスを有効にします。
    "endpoint_public_access": false,            // パブリック API サーバーアクセスを無効にします。
    "cloud_monitor_flags": false,               // クラスターに alicloud-monitor-controller をインストールしません。
    "deletion_protection": false,               // クラスターの削除保護を無効にします。
    "proxy_mode": "ipvs",                       // 高性能な IP Virtual Server (IPVS) kube-proxy モードを使用します。
    "timezone": "Asia/Shanghai",
    "tags": [],
    "addons": [                                 // インストールするアドオン。
        {
            "name": "terway-eniip",             // Terway ネットワークプラグインを使用します。作成後に変更することはできません。
            "config": "{\"IPVlan\":\"false\",\"NetworkPolicy\":\"false\",\"ENITrunking\":\"false\"}"
        },
        {
            "name": "csi-plugin"
        },
        {
            "name": "csi-provisioner"
        },
        {
            "name": "storage-operator",
            "config": "{\"CnfsOssEnable\":\"false\",\"CnfsNasEnable\":\"false\"}"
        },
        {
            "name": "nginx-ingress-controller",
            "disabled": true
        }
    ],
    "node_port_range": "30000-32767",
    "pod_vswitch_ids": [                         // Terway ネットワークプラグインを使用するクラスターの場合、各 Pod が IP アドレスを必要とするため、Pod の vSwitch を指定する必要があります。
        "vsw-j6cwz95vspl56gl******",
        "vsw-j6c1tgut51ude2v******"
    ],
    "login_password": "******",
    "charge_type": "PostPaid",
    "master_instance_charge_type": "PostPaid",
    "cpu_policy": "none",
    "service_account_issuer": "https://kubernetes.default.svc",
    "api_audiences": "https://kubernetes.default.svc",
    "master_count": 3,                         // マスターノードの数を 3 に設定します。
    "master_vswitch_ids": [                    // マスターノードの vSwitch を設定します。
        "vsw-j6cwz95vspl56gl******",
        "vsw-j6c1tgut51ude2v******",
        "vsw-j6c1tgut51ude2v******"
    ],
    "master_instance_types": [                 // マスターノードのインスタンスタイプを設定します。
        "ecs.u1-c1m2.xlarge",
        "ecs.c7.xlarge",
        "ecs.c7.xlarge"
    ],
    "master_system_disk_category": "cloud_essd",      // マスターノードのシステムディスクを ESSD に設定します。
    "master_system_disk_size": 120,                   // システムディスクのサイズを 120 GiB に設定します。
    "master_system_disk_performance_level": "PL1",    // ディスクあたり最大 50,000 の 1 秒あたりの入出力操作 (IOPS) を設定します。
    "vpcid": "vpc-j6c6njo385se80n******",             // ネットワーク計画中にクラスターの VPC ID を設定します。作成後に変更することはできません。(必須)
    "worker_vswitch_ids": [
        "vsw-j6cwz95vspl56gl******",
        "vsw-j6c1tgut51ude2v******"
    ],
    "is_enterprise_security_group": true,
    "ip_stack": "ipv4",
    "service_cidr": "172.16.xx.xx/16",
    "nodepools": [                                                 
        {
            "nodepool_info": {
                "name": "default-nodepool"
            },
            "scaling_group": {
                "system_disk_category": "cloud_essd",
                "system_disk_size": 120,
                "system_disk_performance_level": "PL0",
                "system_disk_encrypted": false,
                "data_disks": [         
                    {
                        "category": "cloud_auto",
                        "size": 200,
                        "encrypted": "false",
                        "bursting_enabled": false
                    }
                ],
                "tags": [],
                "soc_enabled": false,
                "security_hardening_os": false,
                "vswitch_ids": [
                    "vsw-j6cwz95vspl56gl******",
                    "vsw-j6c1tgut51ude2v******"
                ],
                "instance_types": [
                    "ecs.g6.xlarge"
                ],
                "instance_patterns": [],
                "login_password": "******",
                "instance_charge_type": "PostPaid",
                "security_group_ids": [],
                "platform": "AliyunLinux",
                "image_id": "aliyun_3_x64_20G_alibase_20241218.vhd",
                "image_type": "AliyunLinux3",
                "desired_size": 3,               // 3 つの期待されるノードを持つノードプールを作成します。
                "multi_az_policy": "BALANCE"
            },
            "kubernetes_config": {
                "cpu_policy": "none",
                "cms_enabled": false,
                "unschedulable": false,
                "runtime": "containerd",        // コンテナランタイムを containerd 1.6.36 に設定します。作成後に変更することはできません。
                "runtime_version": "1.6.36"
            }
        }
    ]
}

主要なパラメーター

CreateCluster インターフェイスを呼び出して ACK 専用クラスターを作成する際は、このパラメーターに注意してください:

パラメーター

説明

cluster_type

クラスタータイプ。ACK 専用クラスターを作成するには、このパラメーターを Kubernetes に設定する必要があります。

"cluster_type": "Kubernetes"

Terraform

詳細については、「Terraform を使用して ACK 専用クラスターを作成する」をご参照ください。

SDK

詳細については、「Java 用 ACK SDK の使用例」をご参照ください。

CLI

詳細については、「CLI を使用してクラスターを作成する」をご参照ください。

次のステップ

  • クラスターの基本情報を表示する

    [クラスター] ページで、[アクション] 列の [詳細] をクリックします。次に、[基本情報] および [接続情報] タブをクリックして、クラスターの基本情報と接続情報を表示します。以下の情報が表示されます:

    • [API サーバーパブリックエンドポイント]: クラスターの API サーバーがインターネット経由でサービスを提供するために使用する IP アドレスとポート。このエンドポイントにより、クライアント上の kubectl やその他のツールを使用してクラスターを管理できます。

      [EIP の関連付け] および [バインド解除] 機能:

      • EIP の関連付け: 既存の EIP (Elastic IP Address) を選択するか、EIP を作成できます。

        API サーバーに EIP を関連付けた後、API サーバーは再起動します。再起動プロセス中はクラスターに対する操作を行わないことを推奨します。

      • バインド解除: EIP をバインド解除すると、インターネット経由で API サーバーにアクセスできなくなります。

        API サーバーから EIP をバインド解除した後、API サーバーは再起動します。再起動プロセス中はクラスターに対する操作を行わないことを推奨します。

    • [API サーバー内部エンドポイント]: API サーバーがクラスター内でサービスを提供するために使用する IP アドレスとポート。この IP アドレスは、クラスターに関連付けられている Server Load Balancer (SLB) インスタンスに属します。

  • クラスターログの表示

    [アクション] 列の [その他] > [操作] > [ログの表示] を選択して [ログセンター] ページに移動し、クラスターのログを表示できます。

  • クラスター内のノードに関する情報を表示する

    クラスターの kubeconfig ファイルを取得し、kubectl を使用してクラスターに接続し、その後 kubectl get node コマンドを実行してクラスター内のノードに関する情報をクエリできます。

クォータと制限

クラスターサイズが大きい場合や、アカウントに多数のリソースがある場合は、ACK クラスターに指定されたクォータと制限に従ってください。詳細については、「クォータと制限」をご参照ください。

  • 制限: ACK の構成制限、たとえばアカウント残高 クラスターの容量制限など、これはクラスター内のさまざまな Kubernetes リソースの最大容量です。

  • クォータ制限とクォータの増やし方: ACK クラスターのクォータ制限と、ACK が依存する ECS や VPC などのクラウドサービスのクォータ制限。クォータを増やしたい場合は、関連トピックを参照してください。