GPU アクセラレーテッド コンピューティング最適化インスタンスは、高パフォーマンスと高並列コンピューティング機能を提供し、大規模並列コンピューティングシナリオに適しています。GPU アクセラレーテッド コンピューティング最適化インスタンスを使用することで、ビジネスのコンピューティングパフォーマンスと効率を向上させることができます。このトピックでは、Elastic Compute Service (ECS) の GPU アクセラレーテッド コンピューティング最適化インスタンスファミリーの機能について説明し、各インスタンスファミリーのインスタンスタイプの一覧を示します。
背景情報
このトピックを読み進める前に、以下の情報について理解しておく必要があります。
インスタンスタイプの分類と命名。インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、インスタンスファミリー間の違いについて理解しておいてください。詳細については、「インスタンスタイプの分類と命名」をご参照ください。
インスタンスタイプのメトリック。インスタンスタイプのメトリックについては、「インスタンスタイプのメトリック」をご参照ください。DescribeInstanceTypeFamilies および DescribeInstanceTypes オペレーションを呼び出して、ECS が提供するインスタンスファミリーとすべてのインスタンスタイプの詳細をクエリすることもできます。
ビジネスシナリオに基づいたインスタンスタイプの選択手順。詳細については、「インスタンスタイプの選択」をご参照ください。
ユースケースのインスタンスタイプを決定したら、以下の情報について学習する必要がある場合があります。
インスタンスタイプを購入できるリージョン。購入可能なインスタンスタイプは、リージョンによって異なります。各リージョンで使用可能なインスタンスタイプ ページにアクセスして、各リージョンで購入可能なインスタンスタイプを表示できます。または、DescribeRegions および DescribeZones オペレーションを呼び出して、サポートされているリージョンと特定のリージョン内のゾーンをクエリすることもできます。
インスタンスの推定コスト。価格計算ツール で、さまざまな課金方法を使用するインスタンスの価格を計算できます。DescribePrice オペレーションを呼び出して、ECS リソースの最新価格に関する情報をクエリすることもできます。
インスタンス購入手順。ECS インスタンス購入ページ にアクセスして、インスタンスの購入注文を行うことができます。
以下の情報について懸念があるかもしれません。
廃止されたインスタンスファミリー。このトピックでインスタンスタイプが見つからない場合は、そのインスタンスタイプが廃止されたインスタンスファミリーにある可能性があります。廃止されたインスタンスファミリーについては、「廃止されたインスタンスタイプ」をご参照ください。
サポートされているインスタンスタイプの変更。インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを特定します。詳細については、「インスタンスタイプの変更」をご参照ください。
カテゴリ | リファレンス |
GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー (gn シリーズ) | |
ECS Bare Metal Instance ファミリー |
|
推奨されないインスタンスファミリー (インスタンスファミリーが売り切れの場合、上記のインスタンスファミリーを使用することをお勧めします。) |
gn8v および gn8v-tee、GPU コンピューティング最適化インスタンスファミリー
gn8v および gn8v-tee インスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。インスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。
概要:
gn8v:このインスタンスファミリーは、Alibaba Cloud が提供する第 8 世代 GPU コンピューティング最適化インスタンスファミリーであり、AI モデルのトレーニングと超巨大言語モデル(LLM)の推論タスクに適しています。このインスタンスファミリーは、インスタンスごとに 1、2、4、または 8 つの GPU を提供する複数のインスタンスタイプで構成されています。
gn8v-tee:このインスタンスファミリーは、LLM を使用してトレーニングおよび推論タスクを実行するためのセキュリティ要件を満たすために、gn8v インスタンスファミリーに基づいて Alibaba Cloud がリリースした第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。 gn8v-tee インスタンスファミリーは機密コンピューティング機能を提供し、GPU 計算中にデータを暗号化してユーザーデータのセキュリティを確保します。
対応シナリオ:
700 億以上のパラメーターを持つ LLM のマルチ GPU 並列推論コンピューティング
従来の AI モデルのトレーニングと自動運転トレーニング。各 GPU は、単精度浮動小数点形式(FP32)で最大 39.5 TFLOPS のコンピューティング能力を提供します。
8 つの GPU 間の NVLink 接続を活用する中小規模のモデルのトレーニングシナリオ
メリットとポジショニング:
高速で大容量の GPU メモリ:各 GPU には 96 GB の HBM3 メモリが搭載されており、最大 4 TB/s のメモリ帯域幅を提供します。これにより、モデルのトレーニングと推論が大幅に高速化されます。
GPU 間の高い帯域幅:複数の GPU は、900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU インスタンスよりもはるかに高くなっています。
LLM の量子化:このインスタンスファミリーは、8 ビット浮動小数点形式(FP8)のコンピューティング能力をサポートし、大規模パラメーターのトレーニングと推論のコンピューティング能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。
(gn8v-tee インスタンスファミリーのみ)高セキュリティ:gn8v-tee インスタンスファミリーは、モデル推論タスクの全リンクをカバーする機密コンピューティング機能をサポートしています。この機能には、CPU ベースの Intel Trust Domain Extensions(TDX)機密コンピューティングと GPU ベースの NVIDIA Confidential Computing(CC)が含まれます。機密コンピューティング機能は、モデルの推論とトレーニングにおいて、ユーザーの推論データとエンタープライズモデルのセキュリティを確保します。
コンピューティング:
最新のクラウドインフラストラクチャ処理ユニット(CIPU)1.0 プロセッサを使用します。
コンピューティング機能とストレージ機能を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できます。
GPU インスタンス間のピアツーピア(P2P)通信をサポートするベアメタル機能を提供します。
最大 2.8 GHz のベース周波数と最大 3.1 GHz の全コアターボ周波数を提供する第 4 世代 Intel Xeon スケーラブルプロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express(NVMe)プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
弾性一時ディスク、ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
ジャンボフレーム機能をサポートしています。詳細については、「ジャンボフレーム」をご参照ください。
最大 30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します(8 つの GPU を搭載したインスタンスの場合)。
弾性 RDMA インターフェース(ERI)をサポートしています。
説明ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を有効にする」をご参照ください。
gn8v インスタンスタイプ
インスタンスタイプ | vCPU | メモリ(GiB) | GPU メモリ | ネットワークベースライン帯域幅(Gbit/s) | ENI | プライマリ ENI あたりの NIC キュー | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大クラウドディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅(Gbit/s) |
ecs.gn8v.4xlarge | 16 | 96 | 96 GB * 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v.6xlarge | 24 | 128 | 96 GB * 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-2x.8xlarge | 32 | 192 | 96 GB * 2 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-4x.8xlarge | 32 | 384 | 96 GB * 4 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-2x.12xlarge | 48 | 256 | 96 GB * 2 | 25 | 8 | 48 | 30 | 30 | 33 | 300,000 | 1.50 |
ecs.gn8v-8x.16xlarge | 64 | 768 | 96 GB * 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-4x.24xlarge | 96 | 512 | 96 GB * 4 | 50 | 15 | 64 | 30 | 30 | 49 | 500,000 | 3 |
ecs.gn8v-8x.48xlarge | 192 | 1,024 | 96 GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
gn8v-tee インスタンスタイプ
インスタンスタイプ | vCPU | メモリ(GiB) | GPU メモリ | ネットワークベースライン帯域幅(Gbit/s) | ENI | プライマリ ENI あたりの NIC キュー | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大クラウドディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅(Gbit/s) |
ecs.gn8v-tee.4xlarge | 16 | 96 | 96 GB * 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v-tee.6xlarge | 24 | 128 | 96 GB × 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-tee-8x.16xlarge | 64 | 768 | 96 GB × 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-tee-8x.48xlarge | 192 | 1,024 | 96 GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
gn8v および gn8v-tee、GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にご連絡ください。
前提条件
メリットとポジショニング:
グラフィック処理: このインスタンスファミリーは、高周波数の第 5 世代 Intel Xeon Scalable プロセッサを使用し、3D モデリングシナリオでのスムーズなグラフィックレンダリングと設計に十分な CPU キャパシティを提供します。
推論タスク: このインスタンスファミリーは、それぞれ 48 GB のメモリを搭載した革新的な GPU を使用しており、推論タスクを高速化し、FP8 浮動小数点フォーマットをサポートします。 このインスタンスファミリーを Container Service for Kubernetes (ACK) と組み合わせて使用することで、さまざまな AI 生成コンテンツ (AIGC) モデルの推論をサポートし、特に 700 億未満のパラメーターを持つ LLM の推論タスクに対応できます。
1. リソース グループを作成する
アニメーション、映画やテレビの特殊効果、レンダリング
AIGC 画像の生成と LLM の推論
その他の汎用 AI 認識、画像認識、音声認識シナリオ
コンピューティング:
以下の機能を備えた革新的な GPU を使用します。
TensorRT などのアクセラレーション機能と FP8 浮動小数点フォーマットをサポートし、LLM 推論パフォーマンスを向上させます。
GPU あたり最大 48 GB のメモリを搭載し、複数の GPU を搭載した単一インスタンスで 70B 以上の LLM の推論をサポートします。
グラフィック処理機能が向上しています。たとえば、クラウドアシスタントまたは Alibaba Cloud Marketplace のイメージを使用して gn8is インスタンスに GRID ドライバーをインストールすると、インスタンスは第 7 世代インスタンスの 2 倍のグラフィック処理パフォーマンスを提供できます。
最新のハイエンド Intel® Xeon® プロセッサを使用し、3.9 GHz の全コアターボ周波数を実現することで、複雑な 3D モデリング要件に対応します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express (NVMe) プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
エラスティック一時ディスク、企業向け SSD (ESSD)、ESSD AutoPL ディスク、および リージョン ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
ERI をサポートします。
説明ERI の使用方法については、「エンタープライズレベル インスタンスで eRDMA を有効にする」をご参照ください。
gn8is インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワーク ベースライン帯域幅 (Gbit/s) | ENI | プライマリ ENI あたりの NIC キュー数 | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 | 最大ディスク数 | ディスク ベースライン IOPS | ディスク ベースライン帯域幅 (Gbit/s) |
ecs.gn8is.2xlarge | 8 | 64 | 48GB * 1 | 8 | 4 | 8 | 15 | 15 | 17 | 60,000 | 0.75 |
ecs.gn8is.4xlarge | 16 | 128 | 48GB * 1 | 16 | 8 | 16 | 30 | 30 | 17 | 120,000 | 1.25 |
ecs.gn8is-2x.8xlarge | 32 | 256 | 48GB * 2 | 32 | 8 | 32 | 30 | 30 | 33 | 250,000 | 2 |
ecs.gn8is-4x.16xlarge | 64 | 512 | 48GB * 4 | 64 | 8 | 64 | 30 | 30 | 33 | 450,000 | 4 |
ecs.gn8is-8x.32xlarge | 128 | 1,024 | 48GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 900,000 | 8 |
gn7e、GPU コンピューティング最適化インスタンスファミリー
特長:
概要:
このインスタンスファミリーでは、AI ユースケースのビジネス要件に合わせて、異なる数の GPU と CPU を搭載したインスタンスタイプを選択できます。
このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用しており、仮想プライベートクラウド (VPC)、ネットワーク、およびディスクの平均帯域幅が前世代のインスタンスファミリーと比較して 2 倍になっています。
対応シナリオ:
小規模および中規模の AI トレーニング
Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) 業務
高い GPU 処理能力または大量の GPU メモリを必要とする AI 推論タスク
画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU 計算能力を必要とする科学計算アプリケーション
重要Transformer モデルなど、通信負荷の高い AI トレーニングサービスを使用する場合は、GPU 間通信のために NVLink を有効にする必要があります。有効にしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ転送によって発生する予期しない障害により、データが破損する可能性があります。AI トレーニングサービスで使用される通信リンクのトポロジが不明な場合は、チケットを送信してテクニカルサポートを受けてください。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模な計算能力に基づいて、高いネットワークパフォーマンスを提供します。
gn7e インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80GB * 1 | 8 | 3,000,000 | 8 | 8 | 10 | 1 |
ecs.gn7e-c16g1.8xlarge | 32 | 250 | 80GB * 2 | 16 | 6,000,000 | 16 | 8 | 10 | 1 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80GB * 4 | 32 | 12,000,000 | 32 | 8 | 10 | 1 |
ecs.gn7e-c16g1.32xlarge | 128 | 1,000 | 80GB * 8 | 64 | 24,000,000 | 32 | 16 | 15 | 1 |
gn7i、GPU コンピューティング最適化インスタンスファミリー
概要: このインスタンスファミリーは、第 3 世代神龍アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。
対応シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク
コンピューティング:
以下の機能を備えた NVIDIA A10 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
RTX や TensorRT などのアクセラレーション機能のサポート
オールコアターボ周波数 3.5 GHz を実現する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。
gn6i インスタンスファミリーのメモリサイズよりもはるかに大きい、最大 752 GiB のメモリを提供します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn7i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn7i-c8g1.2xlarge | 8 | 30 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 1,600,000 | 8 | 4 | 15 | 15 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 3,000,000 | 8 | 8 | 30 | 30 |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 6,000,000 | 12 | 8 | 30 | 30 |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 * 2 | 24GB * 2 | 32 | 12,000,000 | 16 | 15 | 30 | 30 |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 24,000,000 | 32 | 15 | 30 | 30 |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 10,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 * 2 | 24GB * 2 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 * 4 | 24GB * 4 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 * 4 | 24GB * 4 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 * 8 | 24GB * 8 | 64 | 24,000,000 | 32 | 16 | 30 | 30 |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 * 8 | 24GB * 8 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
以下のインスタンスタイプは、ecs.gn7i-c8g1.2xlarge または ecs.gn7i-c16g1.4xlarge にのみ変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、および ecs.gn7i-8x.16xlarge。
gn7s、GPU コンピューティング最適化インスタンスファミリー
gn7s インスタンスファミリーを使用するには、チケットを送信する。
概要:
このインスタンスファミリーは、最新の Intel Ice Lake プロセッサと、NVIDIA Ampere アーキテクチャに基づく NVIDIA A30 GPU を使用します。AI シナリオでのビジネス要件に合わせて、GPU と vCPU の適切な組み合わせで構成されるインスタンスタイプを選択できます。
このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を 2 倍にします。
対応シナリオ: 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。
コンピューティング:
以下の特徴を持つ NVIDIA A30 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
マルチインスタンス GPU(MIG)機能とアクセラレーション機能(第 2 世代 Tensor コアに基づく)のサポートにより、多様なビジネスサポートを提供
オールコアターボ周波数 3.5 GHz を実現する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。
前世代のインスタンスファミリーからメモリサイズが大幅に向上しています。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn7s インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 | NIC キュー | ENI |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 × 1 | 24GB × 1 | 16 | 1,600,000 | 5 | 1 | 8 | 4 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 × 1 | 24GB × 1 | 16 | 3,000,000 | 5 | 1 | 8 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 × 1 | 24GB × 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 × 2 | 24GB × 2 | 32 | 12,000,000 | 5 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1,000 | NVIDIA A30 × 4 | 24GB × 4 | 64 | 24,000,000 | 10 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 × 1 | 24GB × 1 | 16 | 9,000,000 | 8 | 1 | 16 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 × 1 | 24GB × 1 | 16 | 10,000,000 | 8 | 1 | 16 | 8 |
gn7、GPU コンピューティング最適化インスタンスファミリー
対応シナリオ:
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションなどのディープラーニング アプリケーション
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング機能を必要とする科学計算アプリケーション
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョナル ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn7 インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40GB * 1 | 4 | 2,500,000 | 4 | 8 | 10 | 1 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40GB * 4 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40GB * 8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
gn6i、GPU コンピューティング最適化インスタンスファミリー
対応シナリオ:
コンピュータビジョン、音声認識、音声合成、自然言語処理 ( NLP )、機械翻訳、レコメンデーションシステム向けの AI ( ディープ ラーニングおよび機械学習 ) 推論
クラウドゲームのリアルタイムレンダリング
AR および VR アプリケーションのリアルタイムレンダリング
グラフィックワークステーションまたはグラフィックを多用するコンピューティング
GPU アクセラレーションデータベース
ハイパフォーマンスコンピューティング
コンピューティング:
以下の特徴を持つ NVIDIA T4 GPU を使用します。
革新的な NVIDIA Turing アーキテクチャ
GPU あたり 16 GB のメモリ ( 320 GB/s の帯域幅 )
GPU あたり 2,560 CUDA コア
GPU あたり最大 320 Turing Tensor コア
65 FP16 TFLOPS、130 INT8 TOPS、および 260 INT4 TOPS をサポートする混合精度 Tensor コア
1:4 の CPU とメモリの比率を提供します。
2.5 GHz Intel® Xeon® Platinum 8163 ( Skylake ) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、標準 SSD、および Ultra ディスクをサポートします。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 および IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn6i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ ( GiB ) | GPU | GPU メモリ | ネットワークベースライン帯域幅 ( Gbit/s ) | パケット転送速度 ( pps ) | ディスクベースライン IOPS | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn6i-c4g1.xlarge | 4 | 15 | NVIDIA T4 * 1 | 16GB * 1 | 4 | 2,500,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 * 1 | 16GB * 1 | 5 | 2,500,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 * 1 | 16GB * 1 | 6 | 2,500,000 | なし | 4 | 3 | 10 | 1 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 2,500,000 | なし | 6 | 4 | 10 | 1 |
ecs.gn6i-c40g1.10xlarge | 40 | 155 | NVIDIA T4 * 1 | 16GB * 1 | 10 | 1,600,000 | なし | 16 | 10 | 10 | 1 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 * 2 | 16GB * 2 | 15 | 4,500,000 | なし | 12 | 6 | 10 | 1 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 * 4 | 16GB * 4 | 30 | 4,500,000 | 250,000 | 24 | 8 | 10 | 1 |
gn6e、GPU コンピューティング最適化インスタンスファミリー
対応シナリオ:
画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションや推論アプリケーションなどのディープラーニング アプリケーション
計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション
コンピューティング:
それぞれ 32 GB の GPU メモリを搭載し、NVLink をサポートする NVIDIA V100 GPU を使用します。
以下の機能を備えた NVIDIA V100 GPU(SXM2 ベース)を使用します。
革新的な NVIDIA Volta アーキテクチャ
GPU あたり 32 GB の HBM2 メモリ(900 GB/秒の帯域幅)
GPU あたり 5,120 CUDA コア
GPU あたり 640 Tensor コア
GPU あたり最大 6 つの NVLink 双方向接続。各接続は、双方向で 25 Gbit/秒の帯域幅を提供し、合計帯域幅は 300 Gbit/秒(6 × 25 × 2 = 300)です。
CPU とメモリの比率は 1:8 です。
2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、リージョン別 ESSD、標準 SSD、Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn6e インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/秒) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 × 1 | 32GB × 1 | 5 | 800,000 | 8 | 6 | 10 | 1 |
ecs.gn6e-c12g1.6xlarge | 24 | 184 | NVIDIA V100 × 2 | 32GB × 2 | 8 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 × 4 | 32GB × 4 | 16 | 2,400,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 × 8 | 32GB × 8 | 32 | 4,500,000 | 16 | 8 | 20 | 1 |
gn6v、GPU コンピューティング最適化インスタンスファミリー
対応シナリオ:
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションや推論アプリケーションなどのディープラーニング アプリケーション
計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション
コンピューティング:
NVIDIA V100 GPU を使用します。
以下の特徴を持つ NVIDIA V100 GPU(SXM2 ベース)を使用します。
革新的な NVIDIA Volta アーキテクチャ
GPU あたり 16 GB の HBM2 メモリ(900 GB/s の帯域幅)
GPU あたり 5,120 CUDA コア
GPU あたり 640 Tensor コア
GPU あたり最大 6 つの NVLink 双方向接続。各接続は、双方向で 25 Gbit/s の帯域幅を提供し、合計帯域幅は 300 Gbit/s(6 × 25 × 2 = 300)です。
CPU とメモリの比率は 1:4 です。
2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、標準 SSD、Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn6v インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースライン IOPS | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 * 1 | 16GB * 1 | 2.5 | 800,000 | なし | 4 | 4 | 10 | 1 |
ecs.gn6v-c8g1.4xlarge | 16 | 64 | NVIDIA V100 * 2 | 16GB * 2 | 5 | 1,000,000 | なし | 4 | 8 | 20 | 1 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 * 4 | 16GB * 4 | 10 | 2,000,000 | なし | 8 | 8 | 20 | 1 |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 * 8 | 16GB * 8 | 20 | 2,500,000 | なし | 16 | 8 | 20 | 1 |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 * 8 | 16GB * 8 | 32 | 4,500,000 | 250,000 | 16 | 8 | 20 | 1 |
ebmgn8v、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー
このインスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。
概要: このインスタンスファミリーは、AI モデルのトレーニングと超大規模モデル向けに Alibaba Cloud が提供する第 8 世代 GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリーです。このインスタンスファミリーの各インスタンスには、8 つの GPU が搭載されています。
対応シナリオ:
700 億以上のパラメーターを持つ大規模言語モデル (LLM) のマルチ GPU 並列推論コンピューティング
従来の AI モデルのトレーニングと自動運転トレーニング。各 GPU は、単精度浮動小数点形式 (FP32) で最大 39.5 TFLOPS のコンピューティング能力を提供します。
8 つの GPU 間の NVLink 接続を活用する中小規模のモデルトレーニングシナリオ
メリットとポジショニング:
高速で大容量の GPU メモリ: 各 GPU には 96 GB の HBM3 メモリが搭載されており、最大 4 TB/s のメモリ帯域幅を提供します。これにより、モデルのトレーニングと推論が大幅に高速化されます。
GPU 間の高帯域幅: 複数の GPU は、900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU アクセラレーテッドインスタンスよりもはるかに高くなっています。
大規模モデルの量子化: このインスタンスファミリーは、8 ビット浮動小数点形式 (FP8) のコンピューティング能力をサポートし、大規模パラメーターのトレーニングと推論のコンピューティング能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。
コンピューティング:
最新の CIPU 1.0 プロセッサを使用します。
コンピューティング機能とストレージ機能を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようになり、インスタンス間の帯域幅が 160 Gbit/s に増加し、第 7 世代インスタンスファミリーと比較してデータ転送と処理が高速化されます。
CIPU プロセッサが提供するベアメタル機能を使用して、GPU アクセラレーテッドインスタンス間のピアツーピア (P2P) 通信をサポートします。
最大 3.1 GHz の全コアターボ周波数を備えた第 4 世代 Intel Xeon スケーラブルプロセッサを使用し、192 個の vCPU を提供します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express (NVMe) プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
エラスティック一時ディスク、ESSD、ESSD AutoPL ディスク、リージョン ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。
エラスティック RDMA インターフェース (ERI) をサポートし、VPC で Remote Direct Memory Access (RDMA) に基づくインスタンス間通信を可能にし、インスタンスあたり最大 160 Gbit/s の帯域幅を提供します。これは、CV モデルと従来のモデルに基づくトレーニングタスクに適しています。
説明ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を構成する」をご参照ください。
ebmgn8v インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | NIC キュー (プライマリ ENI/セカンダリ ENI) | ENI | 最大接続データディスク数 | 最大ディスク帯域幅 (Gbit/s) |
ecs.ebmgn8v.48xlarge | 192 | 1,024 | 96GB*8 | 160 (80 × 2) | 30,000,000 | 30 | 30 | 64 | 32 | 31 | 6 |
このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFI である必要があります。インスタンスでカスタムイメージを使用する場合は、イメージが UEFI ブートモードをサポートし、イメージのブートモードが UEFI に設定されていることを確認してください。カスタムイメージのブートモードの設定方法については、「API オペレーションを呼び出してカスタムイメージのブートモードを UEFI モードに設定する」をご参照ください。
gn8is、GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にご連絡ください。
はじめに: このインスタンスファミリーは、AI 生成分野の最近の動向に対応して Alibaba Cloud が提供する第 8 世代 GPU アクセラレーションコンピューティング最適化 ECS ベアメタルインスタンスファミリーです。このインスタンスファミリーの各インスタンスには 8 つの GPU が搭載されています。
対応シナリオ:
Alibaba Cloud Marketplace GRID イメージが使用され、GRID ドライバーがインストールされ、OpenGL および Direct3D グラフィック機能が有効になっているシナリオでの、ワークステーションレベルのグラフィック処理機能に基づくアニメーション、映画、テレビの特殊効果の制作とレンダリング
コンテナー化アプリケーション向けの Container Service for Kubernetes (ACK) が提供する管理サービスを使用して、最大 1,300 億のパラメーターを持つ AI 生成グラフィックコンテンツと LLM 推論タスクをサポートするシナリオ
その他の汎用 AI 認識、画像認識、音声認識シナリオ
メリットとポジショニング:
グラフィック処理: このインスタンスファミリーは、高周波数の第 5 世代 Intel Xeon スケーラブルプロセッサーを使用して、3D モデリングシナリオで十分な CPU 計算能力を提供し、スムーズなグラフィックレンダリングとデザインを実現します。
推論タスク: このインスタンスファミリーは、それぞれ 48 GB のメモリを搭載した革新的な GPU を使用しており、推論タスクを高速化し、FP8 浮動小数点形式をサポートします。このインスタンスファミリーを ACK と共に使用して、さまざまな AI 生成コンテンツ (AIGC) モデルの推論をサポートし、700 億未満のパラメーターを持つ LLM の推論タスクに対応できます。
トレーニングタスク: このインスタンスファミリーは、費用対効果の高い計算能力を提供し、第 7 世代推論インスタンスの 2 倍の FP32 計算パフォーマンスを提供します。このインスタンスファミリーのインスタンスは、FP32 ベースの CV モデルやその他の中小規模モデルのトレーニングに適しています。
以下のメリットを提供する最新の CIPU 1.0 プロセッサーを使用します。
計算能力とストレージ能力を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようになり、インスタンス間の帯域幅が 160 Gbit/s に増加し、前世代のインスタンスファミリーと比較してデータの転送と処理が高速になります。
CIPU プロセッサーが提供するベアメタル機能を使用して、GPU アクセラレーションインスタンス間の Peripheral Component Interconnect Express (PCIe) P2P 通信をサポートします。
コンピューティング:
以下の機能を備えた革新的な GPU を使用します。
vGPU、RTX テクノロジー、TensorRT 推論エンジンなどのアクセラレーション機能のサポート
PCIe スイッチ相互接続のサポート。これにより、CPU 直接接続方式と比較して NVIDIA Collective Communications Library (NCCL) パフォーマンスが 36% 向上し、複数の GPU で LLM 推論タスクを並列実行する場合の推論パフォーマンスが最大 9% 向上します。
1 インスタンスあたり 8 つの GPU (GPU あたり 48 GB のメモリ) をサポートし、単一インスタンスで 700 億以上のパラメーターを持つ LLM 推論タスクをサポートします。
最大 3.9 GHz の全コアターボ周波数を備えた 3.4 GHz Intel® Xeon® スケーラブル (SPR) プロセッサーを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express (NVMe) プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
エラスティック一時ディスク、ESSD、ESSD AutoPL ディスク、リージョン ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。
ERI をサポートして、VPC 内のインスタンス間 RDMA ベースの通信を可能にし、インスタンスあたり最大 160 Gbit/s の帯域幅を提供します。これは、CV モデルと従来のモデルに基づくトレーニングタスクに適しています。
説明ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を構成する」をご参照ください。
ebmgn8is インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 | NIC キュー (プライマリ ENI/セカンダリ ENI) | ENI | 最大接続データディスク数 | 最大ディスク帯域幅 (Gbit/s) |
ecs.ebmgn8is.32xlarge | 128 | 1,024 | 48GB*8 | 160 (80 × 2) | 30,000,000 | 30 | 30 | 64/16 | 32 | 31 | 6 |
このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは UEFI である必要があります。インスタンスでカスタムイメージを使用する場合は、イメージが UEFI ブートモードをサポートし、イメージのブートモードが UEFI に設定されていることを確認してください。カスタムイメージのブートモードを設定する方法については、「API 操作を呼び出してカスタムイメージのブートモードを UEFI モードに設定する」をご参照ください。
ebmgn7e、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー
概要: このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義のコンピューティングを提供します。
対応シナリオ:
ディープラーニングのトレーニングと開発
ハイパフォーマンスコンピューティング (HPC) およびシミュレーション
重要Transformer モデルなど、通信負荷の高い AI トレーニングサービスを使用する場合は、GPU 間通信のために NVLink を有効にする必要があります。有効にしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ転送によって発生する予期しない障害により、データが破損する可能性があります。 AI トレーニングサービスで使用される通信リンクのトポロジが不明な場合は、[チケットの送信]を行い、テクニカルサポートを受けてください。
コンピューティング:
2.9 GHz Intel® Xeon® スケーラブルプロセッサを使用し、全コアターボ周波数 3.5 GHz を実現し、PCIe 4.0 インターフェースをサポートします。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
24,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。
ebmgn7e インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー (プライマリ NIC/セカンダリ NIC) | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.ebmgn7e.32xlarge | 128 | 1,024 | 80GB * 8 | 64 | 24,000,000 | 32/12 | 32 | 10 | 1 |
ebmgn7e インスタンスを起動した後、マルチインスタンス GPU (MIG) 機能のステータスを確認し、MIG 機能を有効または無効にする必要があります。 MIG 機能の詳細については、「NVIDIA Multi-Instance GPU User Guide」をご参照ください。
次の表は、ebmgn7e インスタンスファミリーのインスタンスタイプで MIG 機能がサポートされているかどうかを示しています。
インスタンスタイプ | MIG のサポート | 説明 |
ecs.ebmgn7e.32xlarge | はい | MIG 機能は ebmgn7e インスタンスでサポートされています。 |
ebmgn7i、GPU アクセラレーテッドコンピューティング最適化型 ECS ベアメタルインスタンスファミリー
概要: このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義型コンピューティングを提供します。
対応シナリオ:
画像認識、音声認識、行動識別など、高性能 CPU、メモリ、GPU を必要とする同時 AI 推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク
高性能レンダーファームの作成など、高いネットワーク帯域幅とディスク帯域幅を必要とするシナリオ
高いネットワーク帯域幅を必要とする小規模ディープ ラーニングおよびトレーニング アプリケーション
コンピューティング:
以下の機能を備えた NVIDIA A10 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
vGPU、RTX テクノロジー、TensorRT 推論エンジンなどのアクセラレーション機能のサポート
オールコアターボ周波数 3.5 GHz を実現する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョナル ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
24,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。
ebmgn7i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.ebmgn7i.32xlarge | 128 | 768 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 24,000,000 | 32 | 32 | 10 | 1 |
ebmgn7、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー
概要: このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
対応シナリオ:
画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどの深層学習アプリケーション
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング機能を必要とする科学計算アプリケーション
コンピューティング:
2.5 GHz Intel® Xeon® Platinum 8269CY (Cascade Lake) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
ebmgn7 インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.ebmgn7.26xlarge | 104 | 768 | 40GB*8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
ebmgn7 インスタンスを起動した後、MIG 機能のステータスを手動で確認し、MIG 機能を有効または無効にする必要があります。MIG の詳細については、「MIG ユーザーガイド」をご参照ください。
次の表は、ebmgn7 インスタンスで MIG 機能がサポートされているかどうかを示しています。
インスタンスタイプ | MIG のサポート | 説明 |
ecs.ebmgn7.26xlarge | はい | ebmgn7 インスタンスでは、MIG 機能がサポートされています。 |
ebmgn6e、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー
概要:
このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、それぞれ 32 GB の GPU メモリを搭載し、NVLink をサポートする NVIDIA V100 GPU を使用します。
このインスタンスファミリーで使用される NVIDIA V100 GPU(SXM2 ベース)には、次の機能があります。
革新的な NVIDIA Volta アーキテクチャ
GPU あたり 32 GB の HBM2 メモリ(900 GB/s の帯域幅)
GPU あたり 5,120 CUDA コア
GPU あたり 640 Tensor コア
GPU あたり最大 6 つの NVLink 接続。各接続は双方向で 25 GB/s の帯域幅を提供し、合計帯域幅は 300 GB/s(6 × 25 × 2 = 300)です。
対応シナリオ:
画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングおよび推論アプリケーションなどの深層学習アプリケーション
計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション
コンピューティング:
CPU とメモリの比率は 1:8 です。
2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、リージョン別 ESSD、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
ebmgn6e インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.ebmgn6e.24xlarge | 96 | 768 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 4,800,000 | 16 | 15 | 10 | 1 |
ebmgn6v、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー
概要:
このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、NVIDIA V100 GPU を使用します。
このインスタンスファミリーは、次の機能を備えた NVIDIA V100 GPU(SXM2 ベース)を使用します。
革新的な NVIDIA Volta アーキテクチャ
GPU あたり 16 GB の HBM2 メモリ(900 GB/s の帯域幅)
GPU あたり 5,120 CUDA コア
GPU あたり 640 Tensor コア
GPU あたり最大 6 つの NVLink 接続。各接続は双方向で 25 GB/s の帯域幅を提供し、合計帯域幅は 300 GB/s(6 × 25 × 2 = 300)です。
対応シナリオ:
画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングおよび推論アプリケーションなどの深層学習アプリケーション
計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション
コンピューティング:
CPU とメモリの比率は 1:4 です。
2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、リージョン別 ESSD、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
ebmgn6v インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.ebmgn6v.24xlarge | 96 | 384 | NVIDIA V100 * 8 | 16GB * 8 | 30 | 4,500,000 | 8 | 32 | 10 | 1 |
ebmgn6i、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー
はじめに:
このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。
このインスタンスファミリーは、次の機能を備えた NVIDIA T4 GPU を使用します。
革新的な NVIDIA Turing アーキテクチャ
GPU あたり 16 GB のメモリ(320 GB/s の帯域幅)
GPU あたり 2,560 CUDA コア
GPU あたり最大 320 Turing Tensor コア
65 FP16 TFLOPS、130 INT8 TOPS、および 260 INT4 TOPS をサポートする混合精度 Tensor コア
対応シナリオ:
コンピュータビジョン、音声認識、音声合成、自然言語処理(NLP)、機械翻訳、および参照システム向けの AI (ディープラーニングおよび機械学習)推論
クラウドゲームのリアルタイムレンダリング
拡張現実(AR)および仮想現実(VR)アプリケーションのリアルタイムレンダリング
グラフィックワークステーションまたはグラフィックを多用するコンピューティング
GPU アクセラレーテッドデータベース
ハイパフォーマンスコンピューティング
コンピューティング:
1:4 の CPU とメモリの比率を提供します。
2.5 GHz Intel® Xeon® Platinum 8163 (Skylake) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、リージョン別 ESSD、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
ebmgn6i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.ebmgn6i.24xlarge | 96 | 384 | NVIDIA T4 × 4 | 16GB × 4 | 30 | 4,500,000 | 8 | 32 | 10 | 1 |
gn5i、GPU コンピューティング最適化インスタンスファミリー
対応シナリオ: ディープ ラーニングの推論、マルチメディアのエンコードとデコードなど、サーバー側の GPU コンピューティング ワークロード。
コンピューティング:
NVIDIA P4 GPU を使用します。
CPU とメモリの比率は 1:4 です。
2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
標準 SSD と Ultra ディスクをサポートします。
ネットワーク:
IPv4 と IPv6 をサポートします。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。
gn5i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワーク ベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 * 1 | 8GB * 1 | 1 | 100,000 | 2 | 2 | 6 | 1 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 * 1 | 8GB * 1 | 1.5 | 200,000 | 2 | 3 | 10 | 1 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 * 1 | 8GB * 1 | 2 | 400,000 | 4 | 4 | 10 | 1 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 * 1 | 8GB * 1 | 3 | 800,000 | 4 | 8 | 20 | 1 |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 * 2 | 8GB * 2 | 6 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 * 2 | 8GB * 2 | 10 | 2,000,000 | 14 | 8 | 20 | 1 |
gn5、GPU コンピューティング最適化インスタンスファミリー
対応シナリオ:
深層学習
計算流体力学、計算金融、ゲノミクス、環境分析などの科学計算アプリケーション
ハイパフォーマンスコンピューティング、レンダリング、マルチメディアのエンコードとデコードなどのサーバー側 GPU コンピューティングワークロード
コンピューティング:
NVIDIA P100 GPU を使用します。
複数の CPU とメモリの比率を提供します。
2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。
ストレージ:
ハイパフォーマンスなローカル NVMe SSD をサポートします。
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
標準 SSD と Ultra ディスクをサポートします。
ネットワーク:
IPv4 のみをサポートします。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn5 インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | ローカルストレージ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送速度 (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス |
ecs.gn5-c4g1.xlarge | 4 | 30 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 300,000 | 1 | 3 | 10 |
ecs.gn5-c8g1.2xlarge | 8 | 60 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 400,000 | 1 | 4 | 10 |
ecs.gn5-c4g1.2xlarge | 8 | 60 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 1,000,000 | 4 | 4 | 10 |
ecs.gn5-c8g1.4xlarge | 16 | 120 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 5 | 1,000,000 | 4 | 8 | 20 |
ecs.gn5-c28g1.7xlarge | 28 | 112 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 5 | 2,250,000 | 7 | 8 | 10 |
ecs.gn5-c8g1.8xlarge | 32 | 240 | 1,760 | NVIDIA P100 * 4 | 16GB * 4 | 10 | 2,000,000 | 8 | 8 | 20 |
ecs.gn5-c28g1.14xlarge | 56 | 224 | 880 | NVIDIA P100 * 2 | 16GB * 2 | 10 | 4,500,000 | 14 | 8 | 20 |
ecs.gn5-c8g1.14xlarge | 54 | 480 | 3,520 | NVIDIA P100 * 8 | 16GB * 8 | 25 | 4,000,000 | 14 | 8 | 10 |