すべてのプロダクト
Search
ドキュメントセンター

Elastic Compute Service:Elastic GPU Service インスタンスファミリー(gn、vgn、sgn シリーズ)

最終更新日:Jun 30, 2025

Elastic GPU Service は、GPU アクセラレーションコンピューティング機能とすぐに使用できるスケーラブルな GPU 計算リソースを提供します。Elastic GPU Service は、Alibaba Cloud によって提供されるエラスティックコンピューティングサービスです。このサービスは、GPU と CPU の計算能力を組み合わせて、AI、ハイパフォーマンスコンピューティング、プロフェッショナルグラフィックスと画像処理などのシナリオの課題に対処します。

vGPU アクセラレーションインスタンスファミリー

GPU コンピューティング最適化インスタンスファミリー

推奨されないインスタンスファミリー(以下のインスタンスファミリーが売り切れの場合、前の列のインスタンスファミリーを使用することをお勧めします。)

sgn8ia、vGPU アクセラレーションインスタンスファミリー

  • 概要:

    • このインスタンスファミリーは、第 3 世代SHENLONGアーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。このようにして、このインスタンスファミリーはデータストレージとモデルの読み込み速度を向上させます。

    • このインスタンスファミリーには NVIDIA GRID vWS ライセンスが付属しており、Computer Aided Design(CAD)ソフトウェアに認定されたグラフィックアクセラレーション機能を提供して、プロフェッショナルなグラフィックデザインの要件を満たします。このインスタンスファミリーのインスタンスは、軽量の GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。

  • 対応シナリオ:

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク

    • アニメーションや映画制作、クラウドゲーム、機械設計など、クロック速度の高い AMD Genoa プロセッサの使用を必要とする分野での 3D モデリング

  • コンピューティング:

    • 次の機能を備えた NVIDIA Lovelace GPU を使用します。

      • 大容量 GPU メモリと複数の GPU スライスソリューション

      • vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します

    • 3.4 GHz から 3.75 GHz のクロック速度を提供する AMD Genoa プロセッサを使用して、3D モデリングに高い計算能力を提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大容量の計算能力に基づいて、高いネットワークパフォーマンスを提供します。

sgn8ia インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4/IPv6 アドレス

最大ディスク数

ディスクベースライン IOPS

ディスクベースライン BPS (MB/s)

ecs.sgn8ia-m2.xlarge

4

16

2 GB

2.5

1,000,000

4

4

15/15

9

30,000

244

ecs.sgn8ia-m4.2xlarge

8

32

4 GB

4

1,600,000

8

4

15/15

9

45,000

305

ecs.sgn8ia-m8.4xlarge

16

64

8 GB

7

2,000,000

16

8

30/30

17

60,000

427

ecs.sgn8ia-m16.8xlarge

32

128

16 GB

10

3,000,000

32

8

30/30

33

80,000

610

ecs.sgn8ia-m24.12xlarge

48

192

24 GB

16

4,500,000

48

8

30/30

33

120,000

1,000

ecs.sgn8ia-m48.24xlarge

96

384

48 GB

32

9,000,000

64

15

30/30

33

240,000

2,000

説明
  • 上記の表の GPU 関連の列は、vGPU スライス技術を使用してスライスされた vGPU のものです。

  • sgn8ia インスタンスのメモリと GPU メモリはインスタンス専用です。インスタンスの CPU は、約 1:1.5 のオーバーコミット率で共有リソースです。CPU 計算能力に特別な要件がある場合は、gn7i GPU コンピューティング最適化インスタンスなどの GPU アクセラレーション専用インスタンスファミリーを使用することをお勧めします。

sgn7i-vws、共有 CPU を搭載した vGPU アクセラレーションインスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。 このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。 これにより、データストレージとモデルのロードをより迅速に実行できます。

    • このインスタンスファミリーのインスタンスは、CPU とネットワークリソースを共有して、基盤となるリソースの利用率を最大化します。 各インスタンスは、メモリと GPU メモリへの排他的なアクセス権を持ち、データの隔離とパフォーマンスの保証を提供します。

      説明

      排他的な CPU リソースを使用する場合は、vgn7i-vws インスタンスファミリーを選択してください。

    • このインスタンスファミリーには NVIDIA GRID vWS ライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすために、CAD ソフトウェア向けの認定グラフィックアクセラレーション機能を提供します。 このインスタンスファミリーのインスタンスは、軽量の GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。

  • 対応シナリオ:

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィック仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク

    • アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lake プロセッサの使用を必要とする分野での 3D モデリング

  • コンピューティング:

    • 以下の特徴を持つ NVIDIA A10 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します

    • 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用し、全コアターボ周波数 3.5 GHz を提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

sgn7i-vws インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワーク ベースライン/バースト帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.sgn7i-vws-m2.xlarge

4

15.5

NVIDIA A10 * 1/12

24GB * 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4.2xlarge

8

31

NVIDIA A10 * 1/6

24GB * 1/6

2.6/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8.4xlarge

16

62

NVIDIA A10 * 1/3

24GB * 1/3

5/20

2,000,000

8

4

10

1

ecs.sgn7i-vws-m2s.xlarge

4

8

NVIDIA A10 * 1/12

24GB * 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4s.2xlarge

8

16

NVIDIA A10 * 1/6

24GB * 1/6

2.6/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8s.4xlarge

16

32

NVIDIA A10 * 1/3

24GB * 1/3

5/20

2,000,000

8

4

10

1

説明

上記の表の [GPU] 列は、各インスタンスタイプの GPU モデルと GPU スライス情報を示しています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションは vGPU としてインスタンスに割り当てることができます。例:

NVIDIA A10 * 1/12NVIDIA A10 は GPU モデルです。1/12 は、GPU が 12 個の GPU パーティションにスライスされ、各 GPU パーティションが vGPU としてインスタンスに割り当てられることを示します。

vgn7i-vws、vGPU アクセラレーション インスタンス ファミリー

  • はじめに:

    • このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。 このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。 これにより、データストレージとモデルの読み込みをより迅速に実行できます。

    • このインスタンスファミリーには NVIDIA GRID vWS ライセンスが付属しており、プロフェッショナルなグラフィックデザインの要件を満たすために、CAD ソフトウェア向けの認定グラフィックアクセラレーション機能を提供します。 このインスタンスファミリーのインスタンスは、軽量の GPU コンピューティング最適化インスタンスとして機能し、小規模な AI 推論タスクのコストを削減できます。

  • 対応シナリオ:

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィック仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク

    • アニメーションや映画制作、クラウドゲーム、機械設計など、Ice Lake プロセッサの使用を必要とする分野での 3D モデリング

  • コンピューティング:

    • 以下の機能を備えた NVIDIA A10 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • vGPU、RTX、TensorRT などのアクセラレーション機能をサポートし、多様なビジネスサポートを提供します

    • 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用し、全コアターボ周波数 3.5 GHz を提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

vgn7i-vws インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワーク ベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.vgn7i-vws-m4.xlarge

4

30

NVIDIA A10 * 1/6

24GB * 1/6

3

1,000,000

4

4

10

1

ecs.vgn7i-vws-m8.2xlarge

10

62

NVIDIA A10 * 1/3

24GB * 1/3

5

2,000,000

8

6

10

1

ecs.vgn7i-vws-m12.3xlarge

14

93

NVIDIA A10 * 1/2

24GB * 1/2

8

3,000,000

8

6

15

1

ecs.vgn7i-vws-m24.7xlarge

30

186

NVIDIA A10 * 1

24GB * 1

16

6,000,000

12

8

30

1

説明

上記の表の [GPU] 列は、各インスタンスタイプの GPU モデルと GPU スライス情報を示しています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションは vGPU としてインスタンスに割り当てることができます。例:

NVIDIA A10 * 1/6NVIDIA A10 は GPU モデルです。1/6 は、GPU が 6 つの GPU パーティションにスライスされ、各 GPU パーティションが vGPU としてインスタンスに割り当てられることを示します。

vgn6i-vws、vGPU アクセラレーションインスタンスファミリー

重要
  • NVIDIA GRID ドライバーのアップグレードに伴い、Alibaba Cloud は vgn6i インスタンスファミリを vgn6i-vws インスタンスファミリにアップグレードします。 vgn6i-vws インスタンスファミリは最新の NVIDIA GRID ドライバーを使用し、NVIDIA GRID vWS ライセンスを提供します。NVIDIA GRID ドライバーがプリインストールされている無料イメージを申請するには、チケットを送信するをご参照ください。

  • NVIDIA GRID ドライバーが含まれていないその他のパブリックイメージまたはカスタムイメージを使用するには、チケットを送信するして GRID ドライバーファイルを申請し、NVIDIA GRID ドライバーをインストールしてください。Alibaba Cloud は GRID ドライバーに追加のライセンス料を請求しません。

  • 対応シナリオ:

    • クラウドゲームのリアルタイム レンダリング

    • 拡張現実 (AR) アプリケーションと仮想現実 (VR) アプリケーションのリアルタイム レンダリング

    • 弾力的なインターネット サービス デプロイメントのための AI (ディープ ラーニングおよび機械学習) 推論

    • ディープ ラーニングの教育環境

    • ディープ ラーニングのモデリング実験環境

  • コンピューティング:

    • NVIDIA T4 GPU を使用します。

    • vGPU を使用します。

      • NVIDIA Tesla T4 GPU の 1/4 および 1/2 の計算容量をサポートします。

      • 4 GB および 8 GB の GPU メモリをサポートします。

    • CPU とメモリの比率は 1:5 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163 (Skylake) プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模な計算容量に基づいて、高いネットワーク パフォーマンスを提供します。

vgn6i-vws インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.vgn6i-m4-vws.xlarge

4

23

NVIDIA T4 * 1/4

16GB * 1/4

2

500,000

4/2

3

10

1

ecs.vgn6i-m8-vws.2xlarge

10

46

NVIDIA T4 * 1/2

16GB * 1/2

4

800,000

8/2

4

10

1

ecs.vgn6i-m16-vws.5xlarge

20

92

NVIDIA T4 * 1

16GB * 1

7.5

1,200,000

6

4

10

1

説明

上記の表の [GPU] 列は、各インスタンスタイプの GPU モデルと GPU スライス情報を示しています。各 GPU は複数の GPU パーティションにスライスでき、各 GPU パーティションは vGPU としてインスタンスに割り当てることができます。例:

NVIDIA T4 * 1/4NVIDIA T4 は GPU モデルです。1/4 は、GPU が 4 つの GPU パーティションにスライスされ、各 GPU パーティションが vGPU としてインスタンスに割り当てられることを示します。

gn8v および gn8v-tee、GPU コンピューティング最適化インスタンスファミリー

gn8v および gn8v-tee インスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。インスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。

  • 概要:

    • gn8v: このインスタンスファミリーは、Alibaba Cloud が AI モデルのトレーニングと超巨大言語モデル (LLM) の推論タスク向けに提供する第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。このインスタンスファミリーは、インスタンスごとに 1 つ、2 つ、4 つ、または 8 つの GPU を提供する複数のインスタンスタイプで構成されています。

    • gn8v-tee: このインスタンスファミリーは、LLM を使用してトレーニングタスクと推論タスクを実行するためのセキュリティ要件を満たすために、gn8v インスタンスファミリーに基づいて Alibaba Cloud がリリースした第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。 gn8v-tee インスタンスファミリーは機密コンピューティング機能を提供し、GPU 計算中にデータを暗号化してユーザーデータのセキュリティを確保します。

  • 対応シナリオ:

    • 700 億以上のパラメーターを持つ LLM のマルチ GPU 並列推論コンピューティング

    • 従来の AI モデルトレーニングと自動運転トレーニング。各 GPU は、単精度浮動小数点形式 (FP32) で最大 39.5 TFLOPS のコンピューティング能力を提供します。

    • 8 つの GPU 間の NVLink 接続を活用する中小規模のモデルトレーニングシナリオ

  • メリットとポジショニング:

    • 高速で大容量の GPU メモリ: 各 GPU には 96 GB の HBM3 メモリが搭載されており、最大 4 TB/s のメモリ帯域幅を提供します。これにより、モデルのトレーニングと推論が大幅に高速化されます。

    • GPU 間の高い帯域幅: 複数の GPU は 900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU インスタンスよりもはるかに高くなっています。

    • LLM の量子化: このインスタンスファミリーは、8 ビット浮動小数点形式 (FP8) のコンピューティング能力をサポートし、大規模パラメータートレーニングと推論のコンピューティング能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。

    • (gn8v-tee インスタンスファミリーのみ) 高いセキュリティ: gn8v-tee インスタンスファミリーは、モデル推論タスクのフルリンクをカバーする機密コンピューティング機能をサポートしています。この機能には、CPU ベースの Intel Trust Domain Extensions (TDX) 機密コンピューティングと GPU ベースの NVIDIA Confidential Computing (CC) が含まれます。機密コンピューティング機能は、モデルの推論とトレーニングにおけるユーザー推論データとエンタープライズモデルのセキュリティを確保します。

  • コンピューティング:

    • 最新のクラウドインフラストラクチャ処理装置 (CIPU) 1.0 プロセッサを使用します。

      • コンピューティング機能とストレージ機能を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できます。

      • GPU インスタンス間のピアツーピア (P2P) 通信をサポートするベアメタル機能を提供します。

    • 最大 2.8 GHz のベース周波数と最大 3.1 GHz の全コアターボ周波数を備えた第 4 世代 Intel Xeon スケーラブルプロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • ジャンボフレーム機能をサポートしています。詳細については、「ジャンボフレーム」をご参照ください。

    • 最大 30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します (8 つの GPU を搭載したインスタンスの場合)。

    • エラスティック RDMA インターフェース (ERI) をサポートしています。

      説明

      ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を有効にする」をご参照ください。

インスタンスタイプ注: このチュートリアルでは、基本的な JavaScript の知識があることを前提としています。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENI

プライマリ ENI あたりの NIC キュー

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大クラウドディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅 (GB/s)

ecs.gn8v.4xlarge

16

96

96GB * 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v.6xlarge

24

128

96GB * 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-2x.8xlarge

32

192

96GB * 2

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-4x.8xlarge

32

384

96GB * 4

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-2x.12xlarge

48

256

96GB * 2

25

8

48

30

30

33

300,000

1.50

ecs.gn8v-8x.16xlarge

64

768

96GB * 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-4x.24xlarge

96

512

96GB * 4

50

15

64

30

30

49

500,000

3

ecs.gn8v-8x.48xlarge

192

1,024

96GB * 8

100

15

64

50

50

65

1,000,000

6

インスタンスタイプgn8v

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワーク ベースライン帯域幅 (Gbit/s)

ENI

プライマリ ENI あたりの NIC キュー数

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス数

最大クラウドディスク数

ディスク ベースライン IOPS

ディスク ベースライン 帯域幅 (GB/s)

ecs.gn8v-tee.4xlarge

16

96

96 GB * 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v-tee.6xlarge

24

128

96 GB * 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-tee-8x.16xlarge

64

768

96 GB × 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-tee-8x.48xlarge

192

1,024

96 GB × 8

100

15

64

50

50

65

1,000,000

6

gn8is、GPU コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。

  • はじめに: このインスタンスファミリーは、AI 生成分野の最近の進展に対応して Alibaba Cloud が提供する第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。このインスタンスファミリーは、インスタンスごとに 1、2、4、または 8 個の GPU を提供し、さまざまなユースケースに合わせて異なる CPU と GPU の比率を持つ複数のインスタンスタイプで構成されています。

  • メリットとポジショニング:

    • グラフィック処理: このインスタンスファミリーは、高周波数の第 5 世代 Intel Xeon スケーラブル・プロセッサーを使用して、3D モデリングシナリオでのスムーズなグラフィックレンダリングと設計に十分な CPU キャパシティを提供します。

    • 推論タスク: このインスタンスファミリーは、それぞれ 48 GB のメモリを搭載した革新的な GPU を使用しており、推論タスクを高速化し、FP8 浮動小数点フォーマットをサポートします。このインスタンスファミリーを Container Service for Kubernetes (ACK) と共に使用して、さまざまな AI 生成コンテンツ (AIGC) モデルの推論をサポートし、特に 700 億未満のパラメーターを持つ LLM の推論タスクに対応できます。

  • 対応シナリオ:

    • アニメーション、映画やテレビの特殊効果、レンダリング

    • AIGC 画像の生成と LLM の推論

    • その他の汎用 AI 認識、画像認識、音声認識シナリオ

  • コンピューティング:

    • 以下の特徴を持つ革新的な GPU を使用します。

      • TensorRT などのアクセラレーション機能と FP8 浮動小数点フォーマットのサポートにより、LLM 推論のパフォーマンスが向上します。

      • GPU あたり最大 48 GB のメモリと、複数の GPU を搭載した単一インスタンスでの 700 億以上のパラメーターを持つ LLM の推論をサポートします。

      • グラフィック処理機能の向上。たとえば、[クラウドアシスタント] または [Alibaba Cloud Marketplace のイメージ] を使用して gn8is インスタンスに GRID ドライバーをインストールすると、インスタンスは第 7 世代インスタンスの 2 倍のグラフィック処理パフォーマンスを提供できます。

    • 最新の Intel® Xeon® 高周波プロセッサーを使用し、全コアターボ周波数 3.9 GHz を実現して複雑な 3D モデリング要件に対応します。

  • ストレージ:

  • ネットワーク:

gn8is インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

ENI

プライマリ ENI あたりの NIC キュー

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大ディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅 (GB/s)

ecs.gn8is.2xlarge

8

64

48GB * 1

8

4

8

15

15

17

60,000

0.75

ecs.gn8is.4xlarge

16

128

48GB * 1

16

8

16

30

30

17

120,000

1.25

ecs.gn8is-2x.8xlarge

32

256

48GB × 2

32

8

32

30

30

33

250,000

2

ecs.gn8is-4x.16xlarge

64

512

48GB × 4

64

8

64

30

30

33

450,000

4

ecs.gn8is-8x.32xlarge

128

1,024

48GB × 8

100

15

64

50

50

65

900,000

8

gn7e、GPU コンピューティング最適化インスタンスファミリー

特長:

  • 概要:

    • このインスタンスファミリーでは、AI ユースケースのビジネス要件に合わせて、異なる数の GPU と CPU を提供するインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用しており、仮想プライベートクラウド (VPC)、ネットワーク、およびディスクの平均帯域幅が前世代のインスタンスファミリーと比較して 2 倍になっています。

  • 対応シナリオ:

    • 小規模および中規模の AI トレーニング

    • Compute Unified Device Architecture (CUDA) を使用して高速化された高性能コンピューティング (HPC) ビジネス

    • 高い GPU 処理能力または大量の GPU メモリを必要とする AI 推論タスク

    • 画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング能力を必要とする科学計算アプリケーション

    重要

    Transformer モデルなどの通信負荷の高い AI トレーニングサービスを使用する場合は、GPU 間通信のために NVLink を有効にする必要があります。そうしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ送信によって引き起こされる予期しない障害により、データが破損する可能性があります。AI トレーニングサービスに使用される通信リンクのトポロジがわからない場合は、チケットを送信することでテクニカルサポートを受けてください。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模な計算能力に基づいて、高いネットワークパフォーマンスを提供します。

gn7e インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn7e-c16g1.4xlarge

16

125

80GB * 1

8

3,000,000

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80GB * 2

16

6,000,000

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80GB * 4

32

12,000,000

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1,000

80GB * 8

64

24,000,000

32

16

15

1

gn7i、GPU コンピューティング最適化インスタンス ファミリー

  • はじめに: このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。 このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。

  • 対応シナリオ:

    • 画像認識、音声認識、行動識別など、高パフォーマンスの CPU、メモリ、および GPU を必要とする同時 AI 推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高パフォーマンスの 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク

  • コンピューティング:

    • 以下の特徴を持つ NVIDIA A10 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • RTX や TensorRT などのアクセラレーション機能のサポート

    • 全コアターボ周波数 3.5 GHz を提供する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。

    • gn6i インスタンスファミリーのメモリサイズよりもはるかに大きい、最大 752 GiB のメモリを提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn7i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 * 1

24GB * 1

16

1,600,000

8

4

15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 * 1

24GB * 1

16

3,000,000

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 * 1

24GB * 1

16

6,000,000

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 * 2

24GB * 2

32

12,000,000

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 * 4

24GB * 4

64

24,000,000

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 * 1

24GB * 1

16

9,000,000

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 * 1

24GB * 1

16

10,000,000

16

8

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 * 2

24GB * 2

16

6,000,000

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 * 4

24GB * 4

32

6,000,000

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 * 4

24GB * 4

64

12,000,000

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 * 8

24GB * 8

64

24,000,000

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 * 8

24GB * 8

32

12,000,000

32

8

30

30

重要

ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、および ecs.gn7i-8x.16xlarge のインスタンスタイプは、ecs.gn7i-c8g1.2xlarge または ecs.gn7i-c16g1.4xlarge にのみ変更できます。

gn7s、GPU コンピューティング最適化インスタンス ファミリー

gn7s インスタンスファミリーを使用するには、[チケットを送信] してください。

  • はじめに:

    • このインスタンスファミリーは、最新の Intel Ice Lake プロセッサと、NVIDIA Ampere アーキテクチャに基づく NVIDIA A30 GPU を使用しています。 AI シナリオでのビジネス要件を満たすために、GPU と vCPU の適切な組み合わせで構成されるインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用しており、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅が 2 倍になります。

  • 対応シナリオ: 画像認識、音声認識、行動識別など、高性能 CPU、メモリ、GPU を必要とする同時 AI 推論タスク。

  • コンピューティング:

    • 次の機能を備えた NVIDIA A30 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • 多様なビジネスサポートを提供するためのmulti-instance GPU(MIG)機能とアクセラレーション機能(第 2 世代 Tensor コアに基づく)のサポート

    • 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用し、全コアターボ周波数 3.5 GHz を実現します。

    • 前世代のインスタンスファミリーからメモリサイズが大幅に向上しています。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn7s インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

NIC キュー

ENI

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 * 1

24GB * 1

16

1,600,000

5

1

8

4

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 * 1

24GB * 1

16

3,000,000

5

1

8

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 * 1

24GB * 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 * 2

24GB * 2

32

12,000,000

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1,000

NVIDIA A30 * 4

24GB * 4

64

24,000,000

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 * 1

24GB * 1

16

9,000,000

8

1

16

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 * 1

24GB * 1

16

10,000,000

8

1

16

8

gn7、GPU コンピューティング最適化インスタンス ファミリー

  • 対応シナリオ:

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションなどの深層学習アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU 計算能力を必要とする科学計算アプリケーション

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模な計算能力に基づいて、高いネットワーク パフォーマンスを提供します。

gn7 インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn7-c12g1.3xlarge

12

94

40GB * 1

4

2,500,000

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40GB * 4

16

9,000,000

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40GB * 8

30

18,000,000

16

15

10

1

gn6i、GPU コンピューティング最適化インスタンス ファミリー

  • 対応シナリオ:

    • コンピュータビジョン、音声認識、音声合成、自然言語処理 ( NLP )、機械翻訳、レコメンデーションシステム向けの AI ( ディープ ラーニングおよび機械学習 ) 推論

    • クラウドゲームのリアルタイム レンダリング

    • AR および VR アプリケーションのリアルタイム レンダリング

    • グラフィック ワークステーションまたはグラフィックを多用するコンピューティング

    • GPU アクセラレーション データベース

    • ハイパフォーマンス コンピューティング

  • コンピューティング:

    • 以下の特徴を持つ NVIDIA T4 GPU を使用します。

      • 革新的な NVIDIA Turing アーキテクチャ

      • GPU あたり 16 GB のメモリ ( 320 GB/s の帯域幅 )

      • GPU あたり 2,560 CUDA コア

      • GPU あたり最大 320 Turing Tensor コア

      • 65 FP16 TFLOPS、130 INT8 TOPS、および 260 INT4 TOPS をサポートする混合精度 Tensor コア

    • 1:4 の CPU とメモリの比率を提供します。

    • 2.5 GHz Intel® Xeon® Platinum 8163 ( Skylake ) プロセッサを使用します。

  • ストレージ:

    • すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。

    • ESSDESSD AutoPL ディスク、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4 および IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。

gn6i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスクベースライン IOPS

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn6i-c4g1.xlarge

4

15

NVIDIA T4 * 1

16GB * 1

4

2,500,000

なし

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 * 1

16GB * 1

5

2,500,000

なし

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 * 1

16GB * 1

6

2,500,000

なし

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 * 1

16GB * 1

7.5

2,500,000

なし

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 * 1

16GB * 1

10

1,600,000

なし

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 * 2

16GB * 2

15

4,500,000

なし

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 * 4

16GB * 4

30

4,500,000

250,000

24

8

10

1

gn6e、GPU コンピューティング最適化インスタンス ファミリー

  • 対応シナリオ:

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションや推論アプリケーションなどのディープラーニング アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション

  • コンピューティング:

    • それぞれ 32 GB の GPU メモリを搭載し、NVLink をサポートする NVIDIA V100 GPU を使用します。

    • 次の機能を備えた NVIDIA V100 GPU(SXM2 ベース)を使用します。

      • 革新的な NVIDIA Volta アーキテクチャ

      • GPU あたり 32 GB の HBM2 メモリ(900 GB/秒の帯域幅)

      • GPU あたり 5,120 CUDA コア

      • GPU あたり 640 Tensor コア

      • GPU あたり最大 6 つの NVLink 双方向接続。各接続は、それぞれの方向で 25 Gbit/秒の帯域幅を提供し、合計帯域幅は 300 Gbit/秒(6 × 25 × 2 = 300)です。

    • CPU とメモリの比率は 1:8 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング能力に基づいて、高いネットワーク パフォーマンスを提供します。

gn6e インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 * 1

32GB * 1

5

800,000

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

184

NVIDIA V100 * 2

32GB * 2

8

1,200,000

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 * 4

32GB * 4

16

2,400,000

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 * 8

32GB * 8

32

4,500,000

16

8

20

1

gn6v、GPU コンピューティング最適化インスタンス ファミリー

  • 対応シナリオ:

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニングおよび推論アプリケーションなどのディープラーニング アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション

  • コンピューティング:

    • NVIDIA V100 GPU を使用します。

    • 以下の特徴を持つ NVIDIA V100 GPU(SXM2 ベース)を使用します:

      • 革新的な NVIDIA Volta アーキテクチャ

      • GPU あたり 16 GB の HBM2 メモリ(900 GB/s の帯域幅)

      • GPU あたり 5,120 CUDA コア

      • GPU あたり 640 Tensor コア

      • GPU あたり最大 6 つの NVLink 双方向接続。各接続は、それぞれの方向で 25 Gbit/s の帯域幅を提供し、合計帯域幅は 300 Gbit/s(6 × 25 × 2 = 300)です。

    • CPU とメモリの比率は 1:4 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。

  • ストレージ:

    • すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。

    • ESSDESSD AutoPL ディスク、標準 SSD、および Ultra ディスクをサポートしています。ディスクの詳細については、「ブロックストレージの概要」をご参照ください。

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。

gn6v インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワーク ベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスク ベースライン IOPS

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 * 1

16GB * 1

2.5

800,000

なし

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 * 2

16GB * 2

5

1,000,000

なし

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 * 4

16GB * 4

10

2,000,000

なし

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 * 8

16GB * 8

20

2,500,000

なし

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 * 8

16GB * 8

35

4,500,000

250,000

16

8

20

1

gn5、GPU コンピューティング最適化インスタンス ファミリー

  • 対応シナリオ:

    • 深層学習

    • 計算流体力学、計算金融、ゲノミクス、環境分析などの科学計算アプリケーション

    • ハイパフォーマンスコンピューティング、レンダリング、マルチメディアのエンコードとデコードなどのサーバー側の GPU コンピューティングワークロード

  • コンピューティング:

    • NVIDIA P100 GPU を使用します。

    • 複数の CPU とメモリの比率を提供します。

    • 2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。

  • ストレージ:

    • 高パフォーマンスのローカル NVMe (Non-Volatile Memory Express) SSD をサポートします。

    • すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。

    • 標準 SSD と Ultra ディスクをサポートします。

  • ネットワーク:

    • IPv4 のみをサポートします。

    • 大容量のコンピューティング能力に基づいて、高いネットワークパフォーマンスを提供します。

gn5 インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

ローカルストレージ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ecs.gn5-c4g1.xlarge

4

30

440

NVIDIA P100 * 1

16GB * 1

3

300,000

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

440

NVIDIA P100 × 1

16GB × 1

3

400,000

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

880

NVIDIA P100 × 2

16GB × 2

5

1,000,000

4

4

10

ecs.gn5-c8g1.4xlarge

16

120

880

NVIDIA P100 × 2

16GB × 2

5

1,000,000

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

440

NVIDIA P100 * 1

16GB * 1

5

2,250,000

7

8

10

ecs.gn5-c8g1.8xlarge

32

240

1,760

NVIDIA P100 × 4

16GB × 4

10

2,000,000

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

880

NVIDIA P100 × 2

16GB × 2

10

4,500,000

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

3,520

NVIDIA P100 × 8

16GB × 8

25

4,000,000

14

8

10

gn5i、GPU コンピューティング最適化インスタンス ファミリー

  • 対応シナリオ: ディープ ラーニング推論、マルチメディアのエンコードとデコードなどのサーバー側の GPU コンピューティング ワークロード。

  • コンピューティング:

    • NVIDIA P4 GPU を使用します。

    • CPU とメモリの比率は 1:4 です。

    • 2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。

  • ストレージ:

    • すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。

    • 標準 SSD と Ultra ディスクをサポートしています。

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。

gn5i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート(pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 * 1

8GB * 1

1

100,000

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 * 1

8GB * 1

1.5

200,000

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 * 1

8GB * 1

2

400,000

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 * 1

8GB * 1

3

800,000

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 * 2

8GB * 2

6

1,200,000

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 * 2

8GB * 2

10

2,000,000

14

8

20

1