Elastic GPU Service は、GPU アクセラレーションコンピューティング機能とすぐに使用できるスケーラブルな GPU 計算リソースを提供します。Elastic GPU Service は、Alibaba Cloud によって提供されるエラスティックコンピューティングサービスです。このサービスは、GPU と CPU の計算能力を組み合わせて、AI、ハイパフォーマンスコンピューティング、プロフェッショナルグラフィックスと画像処理などのシナリオの課題に対処します。
vGPU アクセラレーションインスタンスファミリー | GPU コンピューティング最適化インスタンスファミリー | 推奨されないインスタンスファミリー(以下のインスタンスファミリーが売り切れの場合、前の列のインスタンスファミリーを使用することをお勧めします。) |
sgn8ia、vGPU アクセラレーションインスタンスファミリー
概要:
このインスタンスファミリーは、第 3 世代SHENLONGアーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。このようにして、このインスタンスファミリーはデータストレージとモデルの読み込み速度を向上させます。
このインスタンスファミリーには NVIDIA GRID vWS ライセンスが付属しており、Computer Aided Design(CAD)ソフトウェアに認定されたグラフィックアクセラレーション機能を提供して、プロフェッショナルなグラフィックデザインの要件を満たします。このインスタンスファミリーのインスタンスは、軽量の GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。
対応シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク
アニメーションや映画制作、クラウドゲーム、機械設計など、クロック速度の高い AMD Genoa プロセッサの使用を必要とする分野での 3D モデリング
コンピューティング:
次の機能を備えた NVIDIA Lovelace GPU を使用します。
大容量 GPU メモリと複数の GPU スライスソリューション
vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します
3.4 GHz から 3.75 GHz のクロック速度を提供する AMD Genoa プロセッサを使用して、3D モデリングに高い計算能力を提供します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express(NVMe)プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
ESSD、ESSD AutoPL ディスク、およびリージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大容量の計算能力に基づいて、高いネットワークパフォーマンスを提供します。
sgn8ia インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4/IPv6 アドレス | 最大ディスク数 | ディスクベースライン IOPS | ディスクベースライン BPS (MB/s) |
ecs.sgn8ia-m2.xlarge | 4 | 16 | 2 GB | 2.5 | 1,000,000 | 4 | 4 | 15/15 | 9 | 30,000 | 244 |
ecs.sgn8ia-m4.2xlarge | 8 | 32 | 4 GB | 4 | 1,600,000 | 8 | 4 | 15/15 | 9 | 45,000 | 305 |
ecs.sgn8ia-m8.4xlarge | 16 | 64 | 8 GB | 7 | 2,000,000 | 16 | 8 | 30/30 | 17 | 60,000 | 427 |
ecs.sgn8ia-m16.8xlarge | 32 | 128 | 16 GB | 10 | 3,000,000 | 32 | 8 | 30/30 | 33 | 80,000 | 610 |
ecs.sgn8ia-m24.12xlarge | 48 | 192 | 24 GB | 16 | 4,500,000 | 48 | 8 | 30/30 | 33 | 120,000 | 1,000 |
ecs.sgn8ia-m48.24xlarge | 96 | 384 | 48 GB | 32 | 9,000,000 | 64 | 15 | 30/30 | 33 | 240,000 | 2,000 |
上記の表の GPU 関連の列は、vGPU スライス技術を使用してスライスされた vGPU のものです。
sgn8ia インスタンスのメモリと GPU メモリはインスタンス専用です。インスタンスの CPU は、約 1:1.5 のオーバーコミット率で共有リソースです。CPU 計算能力に特別な要件がある場合は、gn7i GPU コンピューティング最適化インスタンスなどの GPU アクセラレーション専用インスタンスファミリーを使用することをお勧めします。
sgn7i-vws、共有 CPU を搭載した vGPU アクセラレーションインスタンスファミリー
はじめに:
このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。 このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。 これにより、データストレージとモデルのロードをより迅速に実行できます。
このインスタンスファミリーのインスタンスは、CPU とネットワークリソースを共有して、基盤となるリソースの利用率を最大化します。 各インスタンスは、メモリと GPU メモリへの排他的なアクセス権を持ち、データの隔離とパフォーマンスの保証を提供します。
説明排他的な CPU リソースを使用する場合は、vgn7i-vws インスタンスファミリーを選択してください。
このインスタンスファミリーには NVIDIA GRID vWS ライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすために、CAD ソフトウェア向けの認定グラフィックアクセラレーション機能を提供します。 このインスタンスファミリーのインスタンスは、軽量の GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。
対応シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィック仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク
アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lake プロセッサの使用を必要とする分野での 3D モデリング
コンピューティング:
以下の特徴を持つ NVIDIA A10 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します
2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用し、全コアターボ周波数 3.5 GHz を提供します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。 ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
sgn7i-vws インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワーク ベースライン/バースト帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.sgn7i-vws-m2.xlarge | 4 | 15.5 | NVIDIA A10 * 1/12 | 24GB * 1/12 | 1.5/5 | 500,000 | 4 | 2 | 2 | 1 |
ecs.sgn7i-vws-m4.2xlarge | 8 | 31 | NVIDIA A10 * 1/6 | 24GB * 1/6 | 2.6/10 | 1,000,000 | 4 | 4 | 6 | 1 |
ecs.sgn7i-vws-m8.4xlarge | 16 | 62 | NVIDIA A10 * 1/3 | 24GB * 1/3 | 5/20 | 2,000,000 | 8 | 4 | 10 | 1 |
ecs.sgn7i-vws-m2s.xlarge | 4 | 8 | NVIDIA A10 * 1/12 | 24GB * 1/12 | 1.5/5 | 500,000 | 4 | 2 | 2 | 1 |
ecs.sgn7i-vws-m4s.2xlarge | 8 | 16 | NVIDIA A10 * 1/6 | 24GB * 1/6 | 2.6/10 | 1,000,000 | 4 | 4 | 6 | 1 |
ecs.sgn7i-vws-m8s.4xlarge | 16 | 32 | NVIDIA A10 * 1/3 | 24GB * 1/3 | 5/20 | 2,000,000 | 8 | 4 | 10 | 1 |
上記の表の [GPU] 列は、各インスタンスタイプの GPU モデルと GPU スライス情報を示しています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションは vGPU としてインスタンスに割り当てることができます。例:
NVIDIA A10 * 1/12
。NVIDIA A10
は GPU モデルです。1/12
は、GPU が 12 個の GPU パーティションにスライスされ、各 GPU パーティションが vGPU としてインスタンスに割り当てられることを示します。
vgn7i-vws、vGPU アクセラレーション インスタンス ファミリー
はじめに:
このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。 このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。 これにより、データストレージとモデルの読み込みをより迅速に実行できます。
このインスタンスファミリーには NVIDIA GRID vWS ライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすために、CAD ソフトウェア向けの認定グラフィックアクセラレーション機能を提供します。 このインスタンスファミリーのインスタンスは、軽量の GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。
対応シナリオ:
画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク
リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィック仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク
アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lake プロセッサの使用を必要とする分野での 3D モデリング
コンピューティング:
以下の機能を備えた NVIDIA A10 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します
2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用し、全コアターボ周波数 3.5 GHz を提供します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
vgn7i-vws インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワーク ベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.vgn7i-vws-m4.xlarge | 4 | 30 | NVIDIA A10 * 1/6 | 24GB * 1/6 | 3 | 1,000,000 | 4 | 4 | 10 | 1 |
ecs.vgn7i-vws-m8.2xlarge | 10 | 62 | NVIDIA A10 * 1/3 | 24GB * 1/3 | 5 | 2,000,000 | 8 | 6 | 10 | 1 |
ecs.vgn7i-vws-m12.3xlarge | 14 | 93 | NVIDIA A10 * 1/2 | 24GB * 1/2 | 8 | 3,000,000 | 8 | 6 | 15 | 1 |
ecs.vgn7i-vws-m24.7xlarge | 30 | 186 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 6,000,000 | 12 | 8 | 30 | 1 |
上記の表の [GPU] 列は、各インスタンスタイプの GPU モデルと GPU スライス情報を示しています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションは vGPU としてインスタンスに割り当てることができます。例:
NVIDIA A10 * 1/6
。NVIDIA A10
は GPU モデルです。1/6
は、GPU が 6 つの GPU パーティションにスライスされ、各 GPU パーティションが vGPU としてインスタンスに割り当てられることを示します。
vgn6i-vws、vGPU アクセラレーションインスタンスファミリー
NVIDIA GRID ドライバーのアップグレードに伴い、Alibaba Cloud は vgn6i インスタンスファミリを vgn6i-vws インスタンスファミリにアップグレードします。 vgn6i-vws インスタンスファミリは最新の NVIDIA GRID ドライバーを使用し、NVIDIA GRID vWS ライセンスを提供します。NVIDIA GRID ドライバーがプリインストールされている無料イメージを申請するには、チケットを送信するをご参照ください。
NVIDIA GRID ドライバーが含まれていないその他のパブリックイメージまたはカスタムイメージを使用するには、チケットを送信するして GRID ドライバーファイルを申請し、NVIDIA GRID ドライバーをインストールしてください。Alibaba Cloud は GRID ドライバーに追加のライセンス料を請求しません。
対応シナリオ:
クラウドゲームのリアルタイム レンダリング
拡張現実 (AR) アプリケーションと仮想現実 (VR) アプリケーションのリアルタイム レンダリング
弾力的なインターネット サービス デプロイメントのための AI (ディープ ラーニングおよび機械学習) 推論
ディープ ラーニングの教育環境
ディープ ラーニングのモデリング実験環境
コンピューティング:
NVIDIA T4 GPU を使用します。
vGPU を使用します。
NVIDIA Tesla T4 GPU の 1/4 および 1/2 の計算容量をサポートします。
4 GB および 8 GB の GPU メモリをサポートします。
CPU とメモリの比率は 1:5 です。
2.5 GHz Intel® Xeon® Platinum 8163 (Skylake) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンス ファミリです。
ESSD、ESSD AutoPL ディスク、リージョン ESSD、標準 SSD、および Ultra ディスクをサポートします。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模な計算容量に基づいて、高いネットワーク パフォーマンスを提供します。
vgn6i-vws インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.vgn6i-m4-vws.xlarge | 4 | 23 | NVIDIA T4 * 1/4 | 16GB * 1/4 | 2 | 500,000 | 4/2 | 3 | 10 | 1 |
ecs.vgn6i-m8-vws.2xlarge | 10 | 46 | NVIDIA T4 * 1/2 | 16GB * 1/2 | 4 | 800,000 | 8/2 | 4 | 10 | 1 |
ecs.vgn6i-m16-vws.5xlarge | 20 | 92 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 1,200,000 | 6 | 4 | 10 | 1 |
上記の表の [GPU] 列は、各インスタンスタイプの GPU モデルと GPU スライス情報を示しています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションは vGPU としてインスタンスに割り当てることができます。例:
NVIDIA T4 * 1/4
。NVIDIA T4
は GPU モデルです。1/4
は、GPU が 4 つの GPU パーティションにスライスされ、各 GPU パーティションが vGPU としてインスタンスに割り当てられることを示します。
gn8v および gn8v-tee、GPU コンピューティング最適化インスタンスファミリー
gn8v および gn8v-tee インスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。インスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。
概要:
gn8v: このインスタンスファミリーは、Alibaba Cloud が AI モデルのトレーニングと超巨大言語モデル (LLM) の推論タスク向けに提供する第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。このインスタンスファミリーは、インスタンスごとに 1 つ、2 つ、4 つ、または 8 つの GPU を提供する複数のインスタンスタイプで構成されています。
gn8v-tee: このインスタンスファミリーは、LLM を使用してトレーニングタスクと推論タスクを実行するためのセキュリティ要件を満たすために、gn8v インスタンスファミリーに基づいて Alibaba Cloud がリリースした第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。 gn8v-tee インスタンスファミリーは機密コンピューティング機能を提供し、GPU 計算中にデータを暗号化してユーザーデータのセキュリティを確保します。
対応シナリオ:
700 億以上のパラメーターを持つ LLM のマルチ GPU 並列推論コンピューティング
従来の AI モデルトレーニングと自動運転トレーニング。各 GPU は、単精度浮動小数点形式 (FP32) で最大 39.5 TFLOPS のコンピューティング能力を提供します。
8 つの GPU 間の NVLink 接続を活用する中小規模のモデルトレーニングシナリオ
メリットとポジショニング:
高速で大容量の GPU メモリ: 各 GPU には 96 GB の HBM3 メモリが搭載されており、最大 4 TB/s のメモリ帯域幅を提供します。これにより、モデルのトレーニングと推論が大幅に高速化されます。
GPU 間の高い帯域幅: 複数の GPU は 900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU インスタンスよりもはるかに高くなっています。
LLM の量子化: このインスタンスファミリーは、8 ビット浮動小数点形式 (FP8) のコンピューティング能力をサポートし、大規模パラメータートレーニングと推論のコンピューティング能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。
(gn8v-tee インスタンスファミリーのみ) 高いセキュリティ: gn8v-tee インスタンスファミリーは、モデル推論タスクのフルリンクをカバーする機密コンピューティング機能をサポートしています。この機能には、CPU ベースの Intel Trust Domain Extensions (TDX) 機密コンピューティングと GPU ベースの NVIDIA Confidential Computing (CC) が含まれます。機密コンピューティング機能は、モデルの推論とトレーニングにおけるユーザー推論データとエンタープライズモデルのセキュリティを確保します。
コンピューティング:
最新のクラウドインフラストラクチャ処理装置 (CIPU) 1.0 プロセッサを使用します。
コンピューティング機能とストレージ機能を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できます。
GPU インスタンス間のピアツーピア (P2P) 通信をサポートするベアメタル機能を提供します。
最大 2.8 GHz のベース周波数と最大 3.1 GHz の全コアターボ周波数を備えた第 4 世代 Intel Xeon スケーラブルプロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express (NVMe) プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
エラスティック一時ディスク、ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
ジャンボフレーム機能をサポートしています。詳細については、「ジャンボフレーム」をご参照ください。
最大 30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します (8 つの GPU を搭載したインスタンスの場合)。
エラスティック RDMA インターフェース (ERI) をサポートしています。
説明ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を有効にする」をご参照ください。
インスタンスタイプ注: このチュートリアルでは、基本的な JavaScript の知識があることを前提としています。
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENI | プライマリ ENI あたりの NIC キュー | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大クラウドディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅 (GB/s) |
ecs.gn8v.4xlarge | 16 | 96 | 96GB * 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v.6xlarge | 24 | 128 | 96GB * 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-2x.8xlarge | 32 | 192 | 96GB * 2 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-4x.8xlarge | 32 | 384 | 96GB * 4 | 20 | 8 | 32 | 30 | 30 | 25 | 200,000 | 1.25 |
ecs.gn8v-2x.12xlarge | 48 | 256 | 96GB * 2 | 25 | 8 | 48 | 30 | 30 | 33 | 300,000 | 1.50 |
ecs.gn8v-8x.16xlarge | 64 | 768 | 96GB * 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-4x.24xlarge | 96 | 512 | 96GB * 4 | 50 | 15 | 64 | 30 | 30 | 49 | 500,000 | 3 |
ecs.gn8v-8x.48xlarge | 192 | 1,024 | 96GB * 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
インスタンスタイプgn8v
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワーク ベースライン帯域幅 (Gbit/s) | ENI | プライマリ ENI あたりの NIC キュー数 | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス数 | 最大クラウドディスク数 | ディスク ベースライン IOPS | ディスク ベースライン 帯域幅 (GB/s) |
ecs.gn8v-tee.4xlarge | 16 | 96 | 96 GB * 1 | 12 | 8 | 16 | 30 | 30 | 17 | 100,000 | 0.75 |
ecs.gn8v-tee.6xlarge | 24 | 128 | 96 GB * 1 | 15 | 8 | 24 | 30 | 30 | 17 | 120,000 | 0.937 |
ecs.gn8v-tee-8x.16xlarge | 64 | 768 | 96 GB × 8 | 32 | 8 | 64 | 30 | 30 | 33 | 360,000 | 2.5 |
ecs.gn8v-tee-8x.48xlarge | 192 | 1,024 | 96 GB × 8 | 100 | 15 | 64 | 50 | 50 | 65 | 1,000,000 | 6 |
gn8is、GPU コンピューティング最適化インスタンスファミリー
このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。
はじめに: このインスタンスファミリーは、AI 生成分野の最近の進展に対応して Alibaba Cloud が提供する第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。このインスタンスファミリーは、インスタンスごとに 1、2、4、または 8 個の GPU を提供し、さまざまなユースケースに合わせて異なる CPU と GPU の比率を持つ複数のインスタンスタイプで構成されています。
メリットとポジショニング:
グラフィック処理: このインスタンスファミリーは、高周波数の第 5 世代 Intel Xeon スケーラブル・プロセッサーを使用して、3D モデリングシナリオでのスムーズなグラフィックレンダリングと設計に十分な CPU キャパシティを提供します。
推論タスク: このインスタンスファミリーは、それぞれ 48 GB のメモリを搭載した革新的な GPU を使用しており、推論タスクを高速化し、FP8 浮動小数点フォーマットをサポートします。このインスタンスファミリーを Container Service for Kubernetes (ACK) と共に使用して、さまざまな AI 生成コンテンツ (AIGC) モデルの推論をサポートし、特に 700 億未満のパラメーターを持つ LLM の推論タスクに対応できます。
対応シナリオ:
アニメーション、映画やテレビの特殊効果、レンダリング
AIGC 画像の生成と LLM の推論
その他の汎用 AI 認識、画像認識、音声認識シナリオ
コンピューティング:
以下の特徴を持つ革新的な GPU を使用します。
TensorRT などのアクセラレーション機能と FP8 浮動小数点フォーマットのサポートにより、LLM 推論のパフォーマンスが向上します。
GPU あたり最大 48 GB のメモリと、複数の GPU を搭載した単一インスタンスでの 700 億以上のパラメーターを持つ LLM の推論をサポートします。
グラフィック処理機能の向上。たとえば、[クラウドアシスタント] または [Alibaba Cloud Marketplace のイメージ] を使用して gn8is インスタンスに GRID ドライバーをインストールすると、インスタンスは第 7 世代インスタンスの 2 倍のグラフィック処理パフォーマンスを提供できます。
最新の Intel® Xeon® 高周波プロセッサーを使用し、全コアターボ周波数 3.9 GHz を実現して複雑な 3D モデリング要件に対応します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
Non-Volatile Memory Express (NVMe) プロトコルをサポートしています。詳細については、「NVMe プロトコル」をご参照ください。
一時的な弾性ディスク、企業向け SSD (ESSD)、ESSD AutoPL ディスク、および リージョン ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
ERI をサポートしています。
説明ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を有効にする」をご参照ください。
gn8is インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | ENI | プライマリ ENI あたりの NIC キュー | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | 最大ディスク数 | ディスクベースライン IOPS | ディスクベースライン帯域幅 (GB/s) |
ecs.gn8is.2xlarge | 8 | 64 | 48GB * 1 | 8 | 4 | 8 | 15 | 15 | 17 | 60,000 | 0.75 |
ecs.gn8is.4xlarge | 16 | 128 | 48GB * 1 | 16 | 8 | 16 | 30 | 30 | 17 | 120,000 | 1.25 |
ecs.gn8is-2x.8xlarge | 32 | 256 | 48GB × 2 | 32 | 8 | 32 | 30 | 30 | 33 | 250,000 | 2 |
ecs.gn8is-4x.16xlarge | 64 | 512 | 48GB × 4 | 64 | 8 | 64 | 30 | 30 | 33 | 450,000 | 4 |
ecs.gn8is-8x.32xlarge | 128 | 1,024 | 48GB × 8 | 100 | 15 | 64 | 50 | 50 | 65 | 900,000 | 8 |
gn7e、GPU コンピューティング最適化インスタンスファミリー
特長:
概要:
このインスタンスファミリーでは、AI ユースケースのビジネス要件に合わせて、異なる数の GPU と CPU を提供するインスタンスタイプを選択できます。
このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用しており、仮想プライベートクラウド (VPC)、ネットワーク、およびディスクの平均帯域幅が前世代のインスタンスファミリーと比較して 2 倍になっています。
対応シナリオ:
小規模および中規模の AI トレーニング
Compute Unified Device Architecture (CUDA) を使用して高速化された高性能コンピューティング (HPC) ビジネス
高い GPU 処理能力または大量の GPU メモリを必要とする AI 推論タスク
画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング能力を必要とする科学計算アプリケーション
重要Transformer モデルなどの通信負荷の高い AI トレーニングサービスを使用する場合は、GPU 間通信のために NVLink を有効にする必要があります。そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予期しない障害により、データが破損する可能性があります。AI トレーニングサービスに使用される通信リンクのトポロジがわからない場合は、チケットを送信することでテクニカルサポートを受けてください。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および Regional ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模な計算能力に基づいて、高いネットワークパフォーマンスを提供します。
gn7e インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス |
ecs.gn7e-c16g1.4xlarge | 16 | 125 | 80GB * 1 | 8 | 3,000,000 | 8 | 8 | 10 | 1 |
ecs.gn7e-c16g1.8xlarge | 32 | 250 | 80GB * 2 | 16 | 6,000,000 | 16 | 8 | 10 | 1 |
ecs.gn7e-c16g1.16xlarge | 64 | 500 | 80GB * 4 | 32 | 12,000,000 | 32 | 8 | 10 | 1 |
ecs.gn7e-c16g1.32xlarge | 128 | 1,000 | 80GB * 8 | 64 | 24,000,000 | 32 | 16 | 15 | 1 |
gn7i、GPU コンピューティング最適化インスタンス ファミリー
はじめに: このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。 このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。
対応シナリオ:
画像認識、音声認識、行動識別など、高パフォーマンスの CPU、メモリ、および GPU を必要とする同時 AI 推論タスク
リモートグラフィックデザインやクラウドゲームなど、高パフォーマンスの 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク
コンピューティング:
以下の特徴を持つ NVIDIA A10 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
RTX や TensorRT などのアクセラレーション機能のサポート
全コアターボ周波数 3.5 GHz を提供する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。
gn6i インスタンスファミリーのメモリサイズよりもはるかに大きい、最大 752 GiB のメモリを提供します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn7i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn7i-c8g1.2xlarge | 8 | 30 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 1,600,000 | 8 | 4 | 15 | 15 |
ecs.gn7i-c16g1.4xlarge | 16 | 60 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 3,000,000 | 8 | 8 | 30 | 30 |
ecs.gn7i-c32g1.8xlarge | 32 | 188 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 6,000,000 | 12 | 8 | 30 | 30 |
ecs.gn7i-c32g1.16xlarge | 64 | 376 | NVIDIA A10 * 2 | 24GB * 2 | 32 | 12,000,000 | 16 | 15 | 30 | 30 |
ecs.gn7i-c32g1.32xlarge | 128 | 752 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 24,000,000 | 32 | 15 | 30 | 30 |
ecs.gn7i-c48g1.12xlarge | 48 | 310 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-c56g1.14xlarge | 56 | 346 | NVIDIA A10 * 1 | 24GB * 1 | 16 | 10,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-2x.8xlarge | 32 | 128 | NVIDIA A10 * 2 | 24GB * 2 | 16 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.8xlarge | 32 | 128 | NVIDIA A10 * 4 | 24GB * 4 | 32 | 6,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7i-4x.16xlarge | 64 | 256 | NVIDIA A10 * 4 | 24GB * 4 | 64 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-8x.32xlarge | 128 | 512 | NVIDIA A10 * 8 | 24GB * 8 | 64 | 24,000,000 | 32 | 16 | 30 | 30 |
ecs.gn7i-8x.16xlarge | 64 | 256 | NVIDIA A10 * 8 | 24GB * 8 | 32 | 12,000,000 | 32 | 8 | 30 | 30 |
ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、および ecs.gn7i-8x.16xlarge のインスタンスタイプは、ecs.gn7i-c8g1.2xlarge または ecs.gn7i-c16g1.4xlarge にのみ変更できます。
gn7s、GPU コンピューティング最適化インスタンス ファミリー
gn7s インスタンスファミリーを使用するには、[チケットを送信] してください。
はじめに:
このインスタンスファミリーは、最新の Intel Ice Lake プロセッサと、NVIDIA Ampere アーキテクチャに基づく NVIDIA A30 GPU を使用しています。 AI シナリオでのビジネス要件を満たすために、GPU と vCPU の適切な組み合わせで構成されるインスタンスタイプを選択できます。
このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用しており、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅が 2 倍になります。
対応シナリオ: 画像認識、音声認識、行動識別など、高性能 CPU、メモリ、GPU を必要とする同時 AI 推論タスク。
コンピューティング:
次の機能を備えた NVIDIA A30 GPU を使用します。
革新的な NVIDIA Ampere アーキテクチャ
多様なビジネスサポートを提供するためのmulti-instance GPU(MIG)機能とアクセラレーション機能(第 2 世代 Tensor コアに基づく)のサポート
2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用し、全コアターボ周波数 3.5 GHz を実現します。
前世代のインスタンスファミリーからメモリサイズが大幅に向上しています。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョン別 ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。
gn7s インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ENI あたりのプライベート IPv4 アドレス | ENI あたりの IPv6 アドレス | NIC キュー | ENI |
ecs.gn7s-c8g1.2xlarge | 8 | 60 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 1,600,000 | 5 | 1 | 8 | 4 |
ecs.gn7s-c16g1.4xlarge | 16 | 120 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 3,000,000 | 5 | 1 | 8 | 8 |
ecs.gn7s-c32g1.8xlarge | 32 | 250 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 6,000,000 | 5 | 1 | 12 | 8 |
ecs.gn7s-c32g1.16xlarge | 64 | 500 | NVIDIA A30 * 2 | 24GB * 2 | 32 | 12,000,000 | 5 | 1 | 16 | 15 |
ecs.gn7s-c32g1.32xlarge | 128 | 1,000 | NVIDIA A30 * 4 | 24GB * 4 | 64 | 24,000,000 | 10 | 1 | 32 | 15 |
ecs.gn7s-c48g1.12xlarge | 48 | 380 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 9,000,000 | 8 | 1 | 16 | 8 |
ecs.gn7s-c56g1.14xlarge | 56 | 440 | NVIDIA A30 * 1 | 24GB * 1 | 16 | 10,000,000 | 8 | 1 | 16 | 8 |
gn7、GPU コンピューティング最適化インスタンス ファミリー
対応シナリオ:
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションなどの深層学習アプリケーション
計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU 計算能力を必要とする科学計算アプリケーション
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、および リージョナル ESSD をサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模な計算能力に基づいて、高いネットワーク パフォーマンスを提供します。
gn7 インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn7-c12g1.3xlarge | 12 | 94 | 40GB * 1 | 4 | 2,500,000 | 4 | 8 | 10 | 1 |
ecs.gn7-c13g1.13xlarge | 52 | 378 | 40GB * 4 | 16 | 9,000,000 | 16 | 8 | 30 | 30 |
ecs.gn7-c13g1.26xlarge | 104 | 756 | 40GB * 8 | 30 | 18,000,000 | 16 | 15 | 10 | 1 |
gn6i、GPU コンピューティング最適化インスタンス ファミリー
対応シナリオ:
コンピュータビジョン、音声認識、音声合成、自然言語処理 ( NLP )、機械翻訳、レコメンデーションシステム向けの AI ( ディープ ラーニングおよび機械学習 ) 推論
クラウドゲームのリアルタイム レンダリング
AR および VR アプリケーションのリアルタイム レンダリング
グラフィック ワークステーションまたはグラフィックを多用するコンピューティング
GPU アクセラレーション データベース
ハイパフォーマンス コンピューティング
コンピューティング:
以下の特徴を持つ NVIDIA T4 GPU を使用します。
革新的な NVIDIA Turing アーキテクチャ
GPU あたり 16 GB のメモリ ( 320 GB/s の帯域幅 )
GPU あたり 2,560 CUDA コア
GPU あたり最大 320 Turing Tensor コア
65 FP16 TFLOPS、130 INT8 TOPS、および 260 INT4 TOPS をサポートする混合精度 Tensor コア
1:4 の CPU とメモリの比率を提供します。
2.5 GHz Intel® Xeon® Platinum 8163 ( Skylake ) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 および IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。
gn6i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスクベースライン IOPS | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn6i-c4g1.xlarge | 4 | 15 | NVIDIA T4 * 1 | 16GB * 1 | 4 | 2,500,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c8g1.2xlarge | 8 | 31 | NVIDIA T4 * 1 | 16GB * 1 | 5 | 2,500,000 | なし | 2 | 2 | 10 | 1 |
ecs.gn6i-c16g1.4xlarge | 16 | 62 | NVIDIA T4 * 1 | 16GB * 1 | 6 | 2,500,000 | なし | 4 | 3 | 10 | 1 |
ecs.gn6i-c24g1.6xlarge | 24 | 93 | NVIDIA T4 * 1 | 16GB * 1 | 7.5 | 2,500,000 | なし | 6 | 4 | 10 | 1 |
ecs.gn6i-c40g1.10xlarge | 40 | 155 | NVIDIA T4 * 1 | 16GB * 1 | 10 | 1,600,000 | なし | 16 | 10 | 10 | 1 |
ecs.gn6i-c24g1.12xlarge | 48 | 186 | NVIDIA T4 * 2 | 16GB * 2 | 15 | 4,500,000 | なし | 12 | 6 | 10 | 1 |
ecs.gn6i-c24g1.24xlarge | 96 | 372 | NVIDIA T4 * 4 | 16GB * 4 | 30 | 4,500,000 | 250,000 | 24 | 8 | 10 | 1 |
gn6e、GPU コンピューティング最適化インスタンス ファミリー
対応シナリオ:
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションや推論アプリケーションなどのディープラーニング アプリケーション
計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション
コンピューティング:
それぞれ 32 GB の GPU メモリを搭載し、NVLink をサポートする NVIDIA V100 GPU を使用します。
次の機能を備えた NVIDIA V100 GPU(SXM2 ベース)を使用します。
革新的な NVIDIA Volta アーキテクチャ
GPU あたり 32 GB の HBM2 メモリ(900 GB/秒の帯域幅)
GPU あたり 5,120 CUDA コア
GPU あたり 640 Tensor コア
GPU あたり最大 6 つの NVLink 双方向接続。各接続は、それぞれの方向で 25 Gbit/秒の帯域幅を提供し、合計帯域幅は 300 Gbit/秒(6 × 25 × 2 = 300)です。
CPU とメモリの比率は 1:8 です。
2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、リージョン ESSD、標準 SSD、Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング能力に基づいて、高いネットワーク パフォーマンスを提供します。
gn6e インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn6e-c12g1.3xlarge | 12 | 92 | NVIDIA V100 * 1 | 32GB * 1 | 5 | 800,000 | 8 | 6 | 10 | 1 |
ecs.gn6e-c12g1.6xlarge | 24 | 184 | NVIDIA V100 * 2 | 32GB * 2 | 8 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.12xlarge | 48 | 368 | NVIDIA V100 * 4 | 32GB * 4 | 16 | 2,400,000 | 8 | 8 | 20 | 1 |
ecs.gn6e-c12g1.24xlarge | 96 | 736 | NVIDIA V100 * 8 | 32GB * 8 | 32 | 4,500,000 | 16 | 8 | 20 | 1 |
gn6v、GPU コンピューティング最適化インスタンス ファミリー
対応シナリオ:
画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニング アプリケーション
計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション
コンピューティング:
NVIDIA V100 GPU を使用します。
以下の特徴を持つ NVIDIA V100 GPU(SXM2 ベース)を使用します:
革新的な NVIDIA Volta アーキテクチャ
GPU あたり 16 GB の HBM2 メモリ(900 GB/s の帯域幅)
GPU あたり 5,120 CUDA コア
GPU あたり 640 Tensor コア
GPU あたり最大 6 つの NVLink 双方向接続。各接続は、それぞれの方向で 25 Gbit/s の帯域幅を提供し、合計帯域幅は 300 Gbit/s(6 × 25 × 2 = 300)です。
CPU とメモリの比率は 1:4 です。
2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
ESSD、ESSD AutoPL ディスク、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。
ネットワーク:
IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。
gn6v インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワーク ベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | ディスク ベースライン IOPS | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn6v-c8g1.2xlarge | 8 | 32 | NVIDIA V100 * 1 | 16GB * 1 | 2.5 | 800,000 | なし | 4 | 4 | 10 | 1 |
ecs.gn6v-c8g1.4xlarge | 16 | 64 | NVIDIA V100 * 2 | 16GB * 2 | 5 | 1,000,000 | なし | 4 | 8 | 20 | 1 |
ecs.gn6v-c8g1.8xlarge | 32 | 128 | NVIDIA V100 * 4 | 16GB * 4 | 10 | 2,000,000 | なし | 8 | 8 | 20 | 1 |
ecs.gn6v-c8g1.16xlarge | 64 | 256 | NVIDIA V100 * 8 | 16GB * 8 | 20 | 2,500,000 | なし | 16 | 8 | 20 | 1 |
ecs.gn6v-c10g1.20xlarge | 82 | 336 | NVIDIA V100 * 8 | 16GB * 8 | 35 | 4,500,000 | 250,000 | 16 | 8 | 20 | 1 |
gn5、GPU コンピューティング最適化インスタンス ファミリー
対応シナリオ:
深層学習
計算流体力学、計算金融、ゲノミクス、環境分析などの科学計算アプリケーション
ハイパフォーマンスコンピューティング、レンダリング、マルチメディアのエンコードとデコードなどのサーバー側の GPU コンピューティングワークロード
コンピューティング:
NVIDIA P100 GPU を使用します。
複数の CPU とメモリの比率を提供します。
2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。
ストレージ:
高パフォーマンスのローカル NVMe (Non-Volatile Memory Express) SSD をサポートします。
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
標準 SSD と Ultra ディスクをサポートします。
ネットワーク:
IPv4 のみをサポートします。
大容量のコンピューティング能力に基づいて、高いネットワークパフォーマンスを提供します。
gn5 インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | ローカルストレージ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート (pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 |
ecs.gn5-c4g1.xlarge | 4 | 30 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 3 | 300,000 | 1 | 3 | 10 |
ecs.gn5-c8g1.2xlarge | 8 | 60 | 440 | NVIDIA P100 × 1 | 16GB × 1 | 3 | 400,000 | 1 | 4 | 10 |
ecs.gn5-c4g1.2xlarge | 8 | 60 | 880 | NVIDIA P100 × 2 | 16GB × 2 | 5 | 1,000,000 | 4 | 4 | 10 |
ecs.gn5-c8g1.4xlarge | 16 | 120 | 880 | NVIDIA P100 × 2 | 16GB × 2 | 5 | 1,000,000 | 4 | 8 | 20 |
ecs.gn5-c28g1.7xlarge | 28 | 112 | 440 | NVIDIA P100 * 1 | 16GB * 1 | 5 | 2,250,000 | 7 | 8 | 10 |
ecs.gn5-c8g1.8xlarge | 32 | 240 | 1,760 | NVIDIA P100 × 4 | 16GB × 4 | 10 | 2,000,000 | 8 | 8 | 20 |
ecs.gn5-c28g1.14xlarge | 56 | 224 | 880 | NVIDIA P100 × 2 | 16GB × 2 | 10 | 4,500,000 | 14 | 8 | 20 |
ecs.gn5-c8g1.14xlarge | 54 | 480 | 3,520 | NVIDIA P100 × 8 | 16GB × 8 | 25 | 4,000,000 | 14 | 8 | 10 |
gn5i、GPU コンピューティング最適化インスタンス ファミリー
対応シナリオ: ディープ ラーニング推論、マルチメディアのエンコードとデコードなどのサーバー側の GPU コンピューティング ワークロード。
コンピューティング:
NVIDIA P4 GPU を使用します。
CPU とメモリの比率は 1:4 です。
2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。
ストレージ:
すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。
標準 SSD と Ultra ディスクをサポートしています。
ネットワーク:
IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。
大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。
gn5i インスタンスタイプ
インスタンスタイプ | vCPU | メモリ (GiB) | GPU | GPU メモリ | ネットワークベースライン帯域幅 (Gbit/s) | パケット転送レート(pps) | NIC キュー | ENI | ENI あたりのプライベート IPv4 アドレス数 | ENI あたりの IPv6 アドレス数 |
ecs.gn5i-c2g1.large | 2 | 8 | NVIDIA P4 * 1 | 8GB * 1 | 1 | 100,000 | 2 | 2 | 6 | 1 |
ecs.gn5i-c4g1.xlarge | 4 | 16 | NVIDIA P4 * 1 | 8GB * 1 | 1.5 | 200,000 | 2 | 3 | 10 | 1 |
ecs.gn5i-c8g1.2xlarge | 8 | 32 | NVIDIA P4 * 1 | 8GB * 1 | 2 | 400,000 | 4 | 4 | 10 | 1 |
ecs.gn5i-c16g1.4xlarge | 16 | 64 | NVIDIA P4 * 1 | 8GB * 1 | 3 | 800,000 | 4 | 8 | 20 | 1 |
ecs.gn5i-c16g1.8xlarge | 32 | 128 | NVIDIA P4 * 2 | 8GB * 2 | 6 | 1,200,000 | 8 | 8 | 20 | 1 |
ecs.gn5i-c28g1.14xlarge | 56 | 224 | NVIDIA P4 * 2 | 8GB * 2 | 10 | 2,000,000 | 14 | 8 | 20 | 1 |