すべてのプロダクト
Search
ドキュメントセンター

Elastic Compute Service:Elastic GPU Serviceインスタンスファミリー (gn、vgn、sgnシリーズ)

最終更新日:Jan 06, 2025

Elastic GPU Serviceは、GPU高速化コンピューティング機能とスケーラブルなGPUリソースを提供します。 Alibaba Cloudのエラスティックコンピューティングポートフォリオの一部として、GPUとCPUを組み合わせた機能を活用して、人工知能、高性能コンピューティング、プロフェッショナルなグラフィックスおよび画像処理のアプリケーションをサポートします。

背景情報

このトピックをさらに読む前に、次の情報に精通している必要があります。

  • インスタンスタイプの分類と命名 インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、およびインスタンスファミリー間の違いをよく理解してください。 詳細については、「インスタンスタイプの分類と命名」をご参照ください。

  • インスタンスタイプのメトリック インスタンスタイプのメトリックの詳細については、「インスタンスタイプメトリック」をご参照ください。 DescribeInstanceTypeFamiliesおよびDescribeInstanceTypes操作を呼び出して、ECSが提供するインスタンスファミリーおよびすべてのインスタンスタイプの詳細を照会することもできます。

  • ビジネスシナリオに基づいてインスタンスタイプを選択する手順 詳細については、「インスタンスタイプの選択」をご参照ください。

ユースケースのインスタンスタイプを決定した後、次の情報について学ぶ必要があります。

  • インスタンスタイプが購入可能なリージョン 購入可能なインスタンスタイプは、リージョンによって異なります。 [各リージョンで利用可能なインスタンスタイプ] ページに移動して、各リージョンで購入可能なインスタンスタイプを表示できます。 または、DescribeRegionsおよびDescribeZones操作を呼び出して、サポートされているリージョンと特定のリージョンのゾーンを照会することもできます。

  • 推定インスタンスコスト。 さまざまな課金方法を使用するインスタンスの料金を計算できます。

    価格計算機DescribePriceを呼び出して、ECSリソースの最新の価格に関する情報を照会することもできます。

  • インスタンスの購入手順 ECSインスタンス購入ページに移動して、インスタンスの購入注文を行うことができます。

あなたは以下の情報について心配しているかもしれません:

  • 退職したインスタンスファミリー このトピックでインスタンスタイプが見つからない場合、そのインスタンスタイプは退職したインスタンスファミリーである可能性があります。 退職したインスタンスファミリーの詳細については、「退職したインスタンスファミリー」をご参照ください。

  • サポートされているインスタンスタイプの変更。 インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを識別します。 詳細については、「インスタンスタイプの変更をサポートするインスタンスタイプとファミリー」をご参照ください。

vGPU-accelerated

GPU-accelerated compute-optimized

推奨されません (これらが完売した場合は以前の仕様を使用してください)

  • sgn8iaファミリーは、vGPUアクセラレーションインスタンスで構成されています。

  • sgn7i-vwsは、共有CPUリソースを備えたvGPU高速インスタンスファミリーです。

  • vGPU高速化インスタンスファミリーvgn7i-vwsの詳細については、リンク先のドキュメントを参照してください。

  • vgn6i-vwsは、vGPUアクセラレーションインスタンスのファミリーです。

  • gn8vインスタンスファミリーは、コンピューティング負荷の高いワークロード向けに最適化されており、GPUアクセラレーションを備えています。

  • gn8isは、GPU高速化されたコンピューティング最適化インスタンスファミリーです。

  • gn7eは、GPU高速化されたコンピューティング最適化インスタンスファミリーです。

  • gn7iインスタンスファミリーは、コンピューティング負荷の高いワークロード向けに最適化され、GPUによって高速化されています。

  • gn7sは、GPU高速化されたコンピューティング最適化インスタンスのファミリーです。

  • gn7は、GPU高速化されたコンピューティング最適化インスタンスファミリーです。

  • gn6iは、GPU高速化されたコンピューティング最適化インスタンスファミリーです。

  • gn6eは、GPU高速化されたコンピューティング最適化インスタンスのファミリーです。

  • gn6vは、GPU高速化されたコンピューティング最適化インスタンスのファミリーです。

  • gn5は、GPU高速化されたコンピューティング最適化インスタンスファミリーの一部です。

  • gn5iは、GPUアクセラレーションコンピューティング最適化インスタンスファミリーにも属します。

sgn8ia、vGPU高速化インスタンスファミリー

  • ファミリー紹介:

    • sgn8iaインスタンスファミリーは、第3世代のSHENLONGアーキテクチャに基づいて構築されており、一貫して超高性能を実現します。 チップ上で高速パス高速化技術を活用することで、ストレージとネットワークのパフォーマンスとコンピューティングの安定性を大幅に向上させます。 これにより、データの保存とモデルの読み込みが高速になります。

    • NVIDIA GRID vWSライセンスを含め、このインスタンスファミリーは、プロフェッショナルなグラフィックデザインの要求に応える、コンピュータ支援設計 (CAD) ソフトウェアの認定グラフィックアクセラレーションを提供します。 これらのインスタンスは、小規模なAI推論タスクのために、コスト効率が高く、軽量なGPU高速化コンピューティング最適化も提供します。

  • シナリオ:

    • 高頻度のCPU、十分なメモリ、堅牢なGPUを備えたこのファミリーは、複数の同時AI推論タスクの管理に優れており、画像認識、音声認識、動作識別などのサービスに最適です。

    • RTXサポートと高周波CPUにより、優れた3Dグラフィックス仮想化を提供し、リモートグラフィックデザイン、クラウドゲーム、その他のグラフィックス集約型コンピューティングタスクに最適です。

    • 最大3.75 GHzの速度を備えた高周波AMDジェノアプロセッサを搭載し、アニメーション、映画制作、クラウドゲーム、および機械設計の3Dモデリングで輝いています。

  • コンピューティング:

    • NVIDIA LovelaceアーキテクチャGPUを採用。

      • より大きなGPUメモリとさまざまなGPUパーティションを提供します。

      • vGPU、RTX、TensorRTなどの主要なアクセラレーション機能をサポートし、多様なビジネスアプリケーションを実現します。

    • プロセッサ: 3.4 GHz〜3.75 GHzのAMD Genoa高周波プロセッサで、3Dモデリングなどのタスクに高い計算能力を提供します。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSDおよびESSD AutoPLディスクがあります。

  • ネットワーク:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスはインスタンスの仕様に比例し、仕様が高いほどネットワーク機能が強化されます。

次の表に、sgn8iaファミリー内のインスタンスタイプとメトリックの詳細を示します。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4/IPv6アドレスの数

サポートされるディスクの最大数

ディスクの基本IOPS

ディスクのベースBPS (M)

ecs.sgn8ia-m2.xlarge

4

16

2 GB

2.5

1,000,000

4

4

15/15

9

30,000

244

ecs.sgn8ia-m4.2xlarge

8

32

4 GB

4

1,600,000

8

4

15/15

9

45,000

305

ecs.sgn8ia-m8.4xlarge

16

64

8 GB

7

2,000,000

16

8

30/30

17

60,000

427

ecs.sgn8ia-m16.8xlarge

32

128

16 GB

10

3,000,000

32

8

30/30

33

80,000

610

ecs.sgn8ia-m24.12xlarge

48

192

24 GB

16

4,500,000

48

8

30/30

33

120,000

1,000

ecs.sgn8ia-m48.24xlarge

96

384

48 GB

32

9,000,000

64

15

30/30

33

24,000

2,000

説明
  • 上の表にリストされているGPUは、vGPUテクノロジを使用して作成されたvGPUパーティションを表します。

  • sgn8iaインスタンスのメモリとGPUメモリは排他的に割り当てられますが、CPUリソースは約1:1.5のオーバーサブスクリプション比率で共有されます。 特定のCPUコンピューティングパワーのニーズについては、gn7i、GPUアクセラレーション済みコンピューティング最適化インスタンスなど、GPUに直接アクセスできる専用インスタンスの購入を検討してください。

CPUを共有したsgn7i-vwsのvGPU高速化インスタンスファミリー

  • ファミリー紹介:

    • sgn7i-vwsインスタンスファミリーは、第3世代のSHENLONGアーキテクチャに基づいて構築されており、予測可能で一貫性のある超高性能を実現します。 チップ上の高速パスアクセラレーション技術を活用することで、ストレージとネットワークのパフォーマンスを大幅に向上させ、コンピューティングの安定性を向上させ、データストレージとモデルの読み込みを高速化します。

    • sgn7i-vwsファミリー内のインスタンスは、CPUとネットワークリソースを共有し、基盤となるハードウェアの使用率を最適化します。 各インスタンスは、独自のメモリとGPUメモリへの排他的アクセスを維持し、データの分離と一貫したパフォーマンスを保証します。

      説明

      排他的なCPUリソースが必要な場合は、vgn7i-vwsインスタンスファミリーの選択を検討してください。

    • NVIDIA GRID vWSライセンスを搭載したこのインスタンスファミリーは、コンピュータ支援設計 (CAD) アプリケーション向けの認定グラフィックアクセラレーションを提供し、プロフェッショナルなグラフィックデザインのニーズに対応しています。 これらのインスタンスは、軽量のGPU高速化されたコンピューティング最適化インスタンスとしても機能し、小規模なAI推論タスクに費用対効果の高いソリューションを提供します。

  • シナリオ:

    • 高性能なCPU、メモリ、およびGPUを備えたsgn7i-vwsファミリーは、複数の同時AI推論タスクの処理に優れているため、画像認識、音声認識、動作識別などのサービスに最適です。

    • RTXサポートと高頻度CPUを備えたこれらのインスタンスは、リモートグラフィックデザイン、クラウドゲーム、およびその他のグラフィック集約型の処理タスクに適した堅牢な3Dグラフィック仮想化機能を提供します。

    • Ice Lakeプロセッサを搭載したsgn7i-vwsファミリーは、アニメーション、映画制作、クラウドゲーム、機械設計の3Dモデリングで非常に優れたパフォーマンスを発揮します。

  • コンピューティング:

    • NVIDIA A10 GPUを採用。

      • 革新的なNVIDIA Ampereアーキテクチャに基づいています。

      • さまざまなビジネスニーズに対応するため、vGPU、RTX、TensorRTなど、さまざまな一般的なアクセラレーション機能をサポートします。

    • プロセッサ: Intel ®Xeon ®基本周波数2.9 GHz、全コアターボ周波数3.5 GHzのスケーラブルプロセッサ (Ice Lake) 。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSDおよびESSD AutoPLディスクがあります。

  • ネットワーク:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスはインスタンスの仕様に比例します。仕様が高いほど、ネットワーク機能が強化されます。

sgn7i-vwsに含まれるインスタンスタイプとメトリクスについては、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース /バースト帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.sgn7i-vws-m2.xlarge

4

15.5

NVIDIA A10 × 1/12

24 GB × 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4.2xlarge

8

31

NVIDIA A10 × 1/6

24 GB × 1/6

2.5/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8.4xlarge

16

62

NVIDIA A10 × 1/3

24 GB × 1/3

5/20

2,000,000

8

4

10

1

ecs.sgn7i-vws-m2s.xlarge

4

8

NVIDIA A10 × 1/12

24 GB × 1/12

1.5/5

500,000

4

2

2

1

ecs.sgn7i-vws-m4s.2xlarge

8

16

NVIDIA A10 × 1/6

24 GB × 1/6

2.5/10

1,000,000

4

4

6

1

ecs.sgn7i-vws-m8s.4xlarge

16

32

NVIDIA A10 × 1/3

24 GB × 1/3

5/20

2,000,000

8

4

10

1

説明

上の表のGPU列には、GPUカードモデルとそのパーティションの詳細が記載されています。 単一のGPUをいくつかのパーティションに分割することができ、各パーティションをvGPUとしてインスタンスに割り当てることができます。 例えば:

NVIDIA A10 × 1/12の指定は、NVIDIA A10がGPUカードのモデルであることを指定し、1/12は、各GPUが12の別々のパーティションに分割され、各インスタンスが1つのパーティションを利用することを示します。

vgn7i-vwsのvGPU高速化インスタンスファミリー

  • ファミリー紹介:

    • vgn7i-vwsインスタンスファミリーは、第3世代のSHENLONGアーキテクチャに基づいて構築されており、非常に高く、予測可能で一貫したパフォーマンスを実現します。 チップ上の高速パスアクセラレーション技術を活用することで、ストレージとネットワークのパフォーマンスを大幅に向上させ、コンピューティングの安定性を向上させ、データストレージとモデルの読み込みを高速化します。

    • NVIDIA GRID vWSライセンスに含まれているこのファミリーは、プロのグラフィックデザインの要求に応える、コンピュータ支援設計 (CAD) ソフトウェアの認定グラフィックアクセラレーションを提供しています。 これらのインスタンスは、小規模なAI推論タスク用のコスト効率の高い軽量GPU高速化コンピューティング最適化インスタンスとしても機能します。

  • シナリオ:

    • 高性能なCPU、メモリ、GPUを備えたこのファミリーは、複数の同時AI推論タスクの処理に優れており、画像認識、音声認識、動作識別などのサービスに最適です。

    • RTX機能と高頻度CPUをサポートすることで、堅牢な3Dグラフィックス仮想化機能を提供し、リモートグラフィックデザイン、クラウドゲーム、その他のグラフィックス集約型コンピューティングタスクに最適です。

    • Ice Lakeプロセッサを搭載したこのvgn7i-vwsは、アニメーション、映画制作、クラウドゲーム、機械設計の3Dモデリングで輝いています。

  • コンピューティング:

    • 革新的なNVIDIA Ampereアーキテクチャを備えたNVIDIA A10 GPUを搭載。

      • 革新的なNVIDIA Ampereアーキテクチャ。

      • vGPU、RTX、TensorRTなどのさまざまなアクセラレーション機能をサポートし、さまざまなビジネスニーズに幅広く対応しています。

    • プロセッサ: Intel ®Xeon ®基本周波数2.9 GHz、全コアターボ周波数3.5 GHzのスケーラブルプロセッサ (Ice Lake) 。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSDおよびESSD AutoPLディスクがあります。

  • ネットワーク:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスはインスタンスの仕様に比例します。仕様が高いほど、ネットワーク機能が強化されます。

以下の表に、vgn7i-vwsに含まれるインスタンスタイプとメトリクスの詳細を示します。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.vgn7i-vws-m4.xlarge

4

30

NVIDIA A10 × 1/6

24 GB × 1/6

3

1,000,000

4

4

10

1

ecs.vgn7i-vws-m8.2xlarge

10

62

NVIDIA A10 × 1/3

24 GB × 1/3

5

2,000,000

8

6

10

1

ecs.vgn7i-vws-m12.3xlarge

14

93

NVIDIA A10 × 1/2

24 GB × 1/2

8

3,000,000

8

6

15

1

ecs.vgn7i-vws-m24.7xlarge

30

186

NVIDIA A10 × 1

24 GB × 1

16

6,000,000

12

8

30

1

説明

上の表のGPU列には、GPUカードモデルとそのパーティションの詳細が記載されています。 単一のGPUをいくつかのパーティションに分割することができ、各パーティションをvGPUとしてインスタンスに割り当てることができます。 例えば:

表記NVIDIA A10 × 1/6は、GPUカードモデルがNVIDIA A10であることを指定し、1/6は、各GPUの6つのパーティションへの分割を示し、各インスタンスは1つのパーティションを利用する。

vgn6i-vwsのvGPU高速化インスタンスファミリー

重要
  • NVIDIA GRIDドライバーのアップグレードにより、vgn6iインスタンスファミリーがvgn6i-vwsに強化されました。 この更新されたファミリは、最新のNVIDIA GRIDドライバを備え、NVIDIA GRID vWSライセンスが付属しています。 プリインストールされたGRIDドライバーで無料の画像にアクセスするには、チケットを起票してください。

  • 他のパブリックイメージまたはカスタムイメージが必要な場合は、

    チケットを起票して、GRIDドライバーファイルを手動でインストールするようリクエストします。これらのイメージにはGRIDドライバーが含まれていません。 Alibaba Cloudは、GRIDドライバーに追加のライセンス料を課すことはありません。

  • シナリオ:

    • リアルタイムレンダリングによるクラウドゲーム。

    • リアルタイムレンダリングを備えたARおよびVRアプリケーション。

    • ディープラーニングと機械学習を含む、柔軟なインターネットサービス展開のためのAI推論。

    • ディープラーニング教育環境。

    • 深層学習モデリング実験環境。

  • コンピューティング:

    • NVIDIA T4 GPUアクセラレータを採用.

    • vGPUを利用します。

      • NVIDIA Tesla T4 GPUの1/4および1/2コンピューティング容量を提供します。

      • 4 GBおよび8 GBのGPUメモリを提供します。

    • CPUとメモリの比率を1:5に維持します。

    • プロセッサ: Intel ®Xeon ®2.5 GHzの基本周波数を持つプラチナ8163 (Skylake) 。

  • ストレージ:

    • I/O最適化インスタンス。

    • 標準 SSD および Ultra ディスクをサポート。

  • ネットワーク:

    • IPv4とIPv6の両方に対応。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークのパフォーマンスはインスタンスの仕様に比例し、仕様が高いほどパフォーマンスが向上します。

vgn6i-vwsのインスタンスタイプとメトリックの詳細は、以下の表にあります。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.vgn6i-m4-vws.xlarge

4

23

NVIDIA T4 × 1/4

16 GB × 1/4

2

500,000

4/2

3

10

1

ecs.vgn6i-m8-vws.2xlarge

10

46

NVIDIA T4 × 1/2

16 GB × 1/2

4

800,000

8/2

4

10

1

ecs.vgn6i-m16-vws.5xlarge

20

92

NVIDIA T4 × 1

16 GB × 1

7.5

1,200,000

6

4

10

1

説明

上の表のGPU列には、GPUカードモデルとそのパーティションの詳細が記載されています。 単一のGPUをいくつかのパーティションに分割することができ、各パーティションをvGPUとしてインスタンスに割り当てることができます。 例えば:

NVIDIA T4 × 1/4の表記は、NVIDIA T4がGPUカードのモデルであることを指定し、1/4は、各GPUが4つのパーティションに分割され、各インスタンスが1つのパーティションを利用することを示します。

gn8v、GPU高速化コンピューティング最適化インスタンスファミリー

gn8vインスタンスファミリーは、中国以外のリージョンを含む一部のリージョンでのみ使用できます。 このインスタンスファミリーにアクセスするには、Alibaba Cloud営業担当者にお問い合わせください。

  • ファミリー紹介: gn8vは、豊富なパラメータセットを使用したAIモデルのトレーニングおよび推論タスク用に設計された、Alibaba CloudのGPUアクセラレーションによるコンピューティング最適化インスタンスの第8世代です。 さまざまなアプリケーションの要求に応えるために、1つ、2つ、4つ、または8つのGPUを備えた構成を提供します。

  • シナリオ:

    • 700億を超えるパラメータを持つ広範な言語モデルのための並列マルチGPU推論コンピューティング。

    • 各GPUは、従来のAIモデルトレーニングや自動運転シミュレーションに最適な、単精度浮動小数点 (FP32) 形式で最大39.5 TFLOPSの計算能力を提供します。

    • NVLinkテクノロジーは、8つのGPU間の高速接続を可能にし、中小規模モデルのトレーニングを最適化します。

  • 製品の特徴とポジショニング:

    • 高速大容量メモリ: GPUあたり96 GBのHBM3eメモリを搭載したこれらのインスタンスは、最大4 TB/sのメモリ帯域幅を誇り、モデルのトレーニングと推論の速度を大幅に向上させます。

    • 高いGPU間帯域幅: NVLinkインターコネクトは900ギガバイト/秒の帯域幅を提供し、マルチGPUトレーニングと推論の効率で以前のGPU製品を大きく上回ります。

    • 大規模モデル量子化技術: 大規模モデルのトレーニングと推論のパフォーマンスを向上させ、速度を向上させ、メモリ消費を削減するためにFP8コンピューティング機能がサポートされています。

    • 高いセキュリティ: CPU機密コンピューティング (Intel TDX) やGPU機密コンピューティング (NVIDIA CC) などの機能は、モデルの推論とトレーニングのためのエンドツーエンドのセキュアコンピューティング機能を提供し、ユーザーデータと企業モデルを保護します。

  • コンピューティング:

    • コンピューティングとストレージを分離する最新のクラウドインフラストラクチャ処理ユニット (CIPU) 1.0プロセッサを採用し、ビジネスニーズに応じた柔軟なストレージリソースの選択を可能にします。

      • ストレージからコンピューティングを分離し、ビジネスニーズに合わせたストレージリソースを柔軟に選択できます。

      • GPU高速化インスタンス間のピアツーピア (P2P) 通信を容易にするベアメタル機能を提供します。

    • 最大2.8 GHzの基本周波数と最大3.1 GHzのオールコアターボ周波数を持つ第4世代Intel Xeonスケーラブルプロセッサを利用します。

  • ストレージ:

    • I/O最適化インスタンスタイプ。

    • ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) と排他的に互換性があります。

  • ネットワーク:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ジャンボフレーム機能をサポートします。 詳細については、「ジャンボフレーム」をご参照ください。

    • 8つのGPUを搭載したインスタンスで最大3,000万ppsのパケット転送速度で、超高ネットワークパフォーマンスを実現します。

    • Elastic RDMAインターフェイス (ERI) のサポートが含まれます。

      説明

      ERIの利用の詳細については、「エンタープライズレベルのインスタンスでのeRDMAの使用」をご参照ください。

      .

次の表に、gn8vファミリーに含まれるインスタンスタイプとメトリックを示します。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

Elastic network interface (ENI)

キュー数 (プライマリ)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

サポートされるディスクの最大数

ディスクの基本IOPS

ディスクの基本帯域幅 (Gbit/s)

ecs.gn8v.4xlarge

16

96

96 GB × 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v.6xlarge

24

128

96 GB × 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-2x.8xlarge

32

192

96 GB × 2

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-4x.8xlarge

32

384

96 GB × 4

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-2x.12xlarge

48

256

96 GB × 2

25

8

48

30

30

33

300,000

1.50

ecs.gn8v-8x.16xlarge

64

768

96 GB × 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-4x.24xlarge

96

512

96 GB × 4

50

15

64

30

30

49

500,000

3

ecs.gn8v-8x.48xlarge

192

1,024

96 GB × 8

100

15

64

50

50

65

1,000,000

6

gn8is、GPU高速化コンピューティング最適化インスタンスファミリー

gn8isインスタンスファミリーは、中国以外のリージョンを含む一部のリージョンでのみ使用できます。 このインスタンスファミリーにアクセスするには、Alibaba Cloud営業担当者にお問い合わせください。

  • ファミリー紹介: gn8isは、AI生成コンテンツ (AIGC) サービスの新たなニーズに対応するように設計された、Alibaba CloudのGPU高速化コンピューティング最適化インスタンスの第8世代です。 このファミリは、さまざまなアプリケーションの要求に対応するために、1〜8個のGPUとさまざまなCPUとGPUの比率を備えた構成を提供します。

  • 製品の特徴とポジショニング:

    • グラフィックス処理: 第5世代のIntel Xeonスケーラブル高周波プロセッサを搭載したこれらのインスタンスは、堅牢なCPUコンピューティングパワーを提供し、3Dモデリングアプリケーションのグラフィックレンダリングと設計のスムーズさを向上させます。

    • 推論タスク: インスタンスは、48 GBのビデオメモリを備えた新しいGPUを備えており、推論タスクを最適化します。 FP8浮動小数点形式をサポートし、ACKコンテナ内でさまざまなAIGCモデルを効率的に処理できるため、最大700億個のパラメータを持つLLMに最適です。

  • シナリオ:

    • 強化されたグラフィック処理能力。 たとえば、Cloud AssistantまたはAlibaba Cloud Marketplaceイメージを介してgn8isインスタンスにGRIDドライバーをインストールすると、7世代のインスタンスと比較してグラフィック処理パフォーマンスが2倍になり、アニメーション、フィルム、テレビの特殊効果、およびレンダリングタスクに役立ちます。

    • AIGC画像の効率的でコスト効率の高い生成と、ACKコンテナ化を使用したLLM推論。

    • 画像認識や音声認識など、一般的なAI認識タスクに適用できます。

  • コンピューティング:

    • 革新的なGPUを搭載。

      • TensorRTやFP8浮動小数点形式などのアクセラレーションテクノロジーをサポートし、LLM推論機能を強化します。

      • 48 GBのメモリをアップグレードすると、マルチGPU構成で、単一のインスタンスで700億を超えるLLMの推論を処理できます。

      • gn8isインスタンスにGRIDドライバーをインストールすると、グラフィック処理機能が強化され、7世代インスタンスの2倍のパフォーマンスが得られます。

    • プロセッサ: 最新のインテル ®Xeon ®の高周波プロセッサは、複雑な3Dモデリングタスクの要求を満たす、最大3.9 GHzのオールコアターボ周波数を実現します。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSD、ESSD AutoPLディスク、およびエラスティックエフェメラルディスク (EED) が含まれます。

  • ネットワーク:

gn8isファミリーに含まれるインスタンスタイプとメトリックの詳細は、以下の表にあります。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

Elastic network interface (ENI)

キュー数 (プライマリ)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

サポートされるディスクの最大数

ディスクの基本IOPS

ディスクの基本帯域幅 (Gbit/s)

ecs.gn8is.2xlarge

8

64

48 GB × 1

8

4

8

15

15

17

60,000

0.75

ecs.gn8is.4xlarge

16

128

48 GB × 1

16

8

16

30

30

17

120,000

1.25

ecs.gn8is-2x.8xlarge

32

256

48 GB × 2

32

8

32

30

30

33

250,000

2

ecs.gn8is-4x.16xlarge

64

512

48 GB × 4

64

8

64

30

30

33

450,000

4

ecs.gn8is-8x.32xlarge

128

1,024

48 GB × 8

100

15

64

50

50

65

900,000

8

gn7e、GPU高速化コンピューティング最適化インスタンスファミリー

gn7eインスタンスファミリーには、次の機能があります。

  • 家族の概要:

    • これらのインスタンスにより、多様なAIビジネスニーズを満たすGPUおよびCPUリソースを柔軟に選択できます。

    • gn7eファミリーは、第3世代のSHENLONGアーキテクチャを利用しており、VPC、ネットワーク、およびディスクの平均帯域幅は、前世代のインスタンスファミリーと比較して2倍になります。

  • ユースケース:

    • 中小規模のAIトレーニング。

    • Compute Unified Device Architecture (CUDA) で高速化されたハイパフォーマンスコンピューティング (HPC) タスク。

    • 高いGPU処理能力またはかなりのGPUメモリを要求するAI推論タスク。

    • 画像分類、自動運転、音声認識のためのAIアルゴリズムトレーニングなど、ディープラーニングタスク。

    • 計算流体力学、計算金融、分子力学、環境分析などの強力なGPUコンピューティング機能を必要とする科学コンピューティング。

    重要

    トランスモデルなどの通信負荷の高いAIトレーニングサービスでは、PCIeリンクを介した大規模なデータ転送によるデータの破損を防ぐために、GPU間通信用のNVlinkを有効にする必要があります。 トレーニング通信リンクのトポロジが不明な場合は、

    または、Alibaba Cloudエキスパートからのテクニカルサポートのチケットを起票してください。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSDおよびESSD AutoPLディスクがあります。

  • ネットワーキング:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスはインスタンスの仕様に比例します。仕様が高いほど、ネットワークパフォーマンスが向上します。

gn7eインスタンスタイプとメトリックの詳細については、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn7e-c16g1.4xlarge

16

125

80 GB × 1

8

3,000,000

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80 GB × 2

16

6,000,000

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80 GB × 4

32

12,000,000

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1,000

80 GB × 8

64

24,000,000

32

16

15

1

gn7i、GPU高速化コンピューティング最適化インスタンスファミリー

  • ファミリー紹介: gn7iインスタンスファミリーは、第3世代のSHENLONGアーキテクチャに基づいて構築されており、予測可能で一貫性のある超高性能を実現します。 チップ上の高速パス高速化テクノロジーを備えており、コンピューティングの安定性とともにストレージとネットワークのパフォーマンスが大幅に向上します。

  • シナリオ:

    • 高性能なCPU、メモリ、およびGPUを備えたこのファミリは、複数の同時AI推論タスクの管理に優れています。 画像認識、音声認識、行動識別などのサービスに最適です。

    • RTXサポートと高周波CPUを備え、堅牢な3Dグラフィックス仮想化機能を提供し、リモートグラフィックデザイン、クラウドゲーム、その他のグラフィックス集約型の処理タスクに最適です。

  • コンピューティング:

    • NVIDIA A10 GPUを使用してパフォーマンスを向上させます。

      • 最先端のNVIDIA Ampereアーキテクチャが特徴です。

      • RTXやTensorRTなどの広く使用されているアクセラレーションテクノロジーのサポートが含まれています。

    • プロセッサ: インテル ®Xeon ®スケーラブルプロセッサ (Ice Lake) は、2.9 GHzの基本周波数と3.5 GHzの全コアターボ周波数を提供します。

    • 最大752 GiBのメモリを提供し、gn6iインスタンスファミリーで使用可能なメモリ容量を大幅に超えています。

  • ストレージ:

    • I/O最適化インスタンス。

    • ESSDやESSD AutoPLディスクなどのディスクタイプをサポートします。

  • ネットワーク:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークのパフォーマンスはインスタンスの仕様に比例し、仕様が高いほどパフォーマンスが向上します。

gn7iファミリーに含まれるインスタンスタイプとメトリックについては、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 × 1

24 GB × 1

16

1,600,000

8

4

有効期限の 15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 × 1

24 GB × 1

16

3,000,000

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 × 1

24 GB × 1

16

6,000,000

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 × 2

24 GB × 2

32

12,000,000

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 × 4

24 GB × 4

64

24,000,000

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 × 1

24 GB × 1

16

9,000,000

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 × 1

24 GB × 1

16

12,000,000

16

12

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 × 2

24 GB × 2

16

6,000,000

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 × 4

24 GB × 4

16

6,000,000

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 × 4

24 GB × 4

32

12,000,000

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 × 8

24 GB × 8

64

24,000,000

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 × 8

24 GB × 8

32

12,000,000

32

8

30

30

重要

ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、およびecs.gn7i-8x.16xlargeのインスタンスタイプは、ecs.gn7i-c8g1.2xlargeまたはecs.gn7i-c16g1.4xlargeにアップグレードできますが、ecs.gn7i-c32g1.8xlargeなどの他のタイプとは互換性がありません。

gn7s、GPU高速化コンピューティング最適化インスタンスファミリー

gn7sに申し込むには、

または、チケットを起票してください。

  • ファミリー紹介:

    • NVIDIA Ampereアーキテクチャに基づく最新のIntel IceLakeプロセッサとNVIDIA A30 GPUを搭載したgn7sファミリーは、多様なAIビジネスニーズを満たすGPUおよびCPUリソースの柔軟な選択を可能にします。

    • このファミリーは、第3世代のSHENLONGアーキテクチャを活用して、VPC、ネットワーク、およびディスクの平均帯域幅を前世代のインスタンスと比較して2倍にします。

  • シナリオ: 高性能なCPU、メモリ、およびGPUを備えたgn7は、複数の同時AI推論タスクの処理に優れており、画像認識、音声認識、動作識別などのサービスに最適です。

  • コンピューティング:

    • 革新的なNVIDIA Ampereアーキテクチャを備えたNVIDIA A30 GPUを採用。

      • 革新的なNVIDIA Ampereアーキテクチャは、最先端のパフォーマンスを提供します。

      • 第2世代のTensorコアに基づくマルチインスタンスGPU (MIG) およびアクセラレーション機能をサポートし、多様なビジネスサポートを提供します。

    • プロセッサ: Intel ®Xeon ®基本周波数2.9 GHz、全コアターボ周波数3.5 GHzのスケーラブルプロセッサ (Ice Lake) 。

    • 前世代のインスタンスと比較して、メモリ容量が大幅に向上しました。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSDおよびESSD AutoPLディスクがあります。

  • ネットワーク:

    • IPv4アドレスとIPv6アドレスの両方をサポートします。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークのパフォーマンスはインスタンスの仕様に比例し、仕様が高いほどパフォーマンスが向上します。

gn7sインスタンスタイプとメトリクスの詳細については、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

マルチキュー

Elastic network interface (ENI)

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 × 1

24 GB × 1

16

6,000,000

5

1

12

8

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 × 1

24 GB × 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 × 1

24 GB × 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 × 2

24 GB × 2

32

12,000,000

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1,000

NVIDIA A30 × 4

24 GB × 4

64

24,000,000

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 × 1

24 GB × 1

16

6,000,000

8

1

12

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 × 1

24 GB × 1

16

6,000,000

8

1

12

8

gn7、GPU高速化コンピューティング最適化インスタンスファミリー

  • シナリオ:

    • 画像分類、自動運転、音声認識のためのAIアルゴリズムトレーニングなど、ディープラーニングアプリケーション。

    • 計算流体力学、計算金融、分子力学、環境分析など、堅牢なGPUコンピューティング機能を要求する科学コンピューティングアプリケーション。

  • ストレージ:

    • I/O最適化インスタンス。

    • サポートされているディスクタイプには、ESSDおよびESSD AutoPLディスクがあります。

  • ネットワーク:

    • IPv4とIPv6の両方をサポート。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスはインスタンスの仕様に比例します。仕様が高いほど、ネットワークパフォーマンスが向上します。

gn7インスタンスタイプとメトリックの詳細については、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn7-c12g1.3xlarge

12

94

40 GB × 1

4

2,500,000

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40 GB × 4

16

9,000,000

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40 GB × 8

30

18,000,000

16

15

10

1

gn6i、GPU高速化コンピューティング最適化インスタンスファミリー

  • シナリオ:

    • コンピュータビジョン、音声認識、音声合成、自然言語処理 (NLP) 、機械翻訳、推奨システムなどのアプリケーション向けのディープラーニングと機械学習を含むAI推論タスク。

    • リアルタイムのレンダリング機能を備えたクラウドゲーム。

    • ディープラーニング、コンピュータビジョン向けの機械学習推論、音声認識、音声合成、自然言語処理 (NLP) 、機械翻訳、推奨システムなどのAIアプリケーション。

    • クラウドゲーム、AR、およびVRアプリケーション向けのリアルタイムレンダリング。

    • 集中的なグラフィックスコンピューティングとグラフィックスワークステーション。

    • GPU高速化データベースと高性能コンピューティングタスク。

  • コンピューティング:

    • GPUアクセラレータ: T4フィーチャー:

      • NVIDIAチューリングアーキテクチャ。

      • 16 GPUあたり320ギガバイト/秒帯域幅を持つGBのGDDR6メモリ。

      • 2,560 CUDA core / GPU

      • GPUあたり最大320個のTuring Tensorコア。

      • 65 FP16 TFLOPS、130 INT8 TOPS、および260 INT4 TOPSを提供する混合精度Tensorコア。

    • 最適なCPUとメモリの比率は1:4です。

    • プロセッサ: Intel ®Xeon ®2.5 GHzの基本周波数のプラチナ8163 (Skylake) 。

  • ストレージ:

    • I/O最適化インスタンス。

    • ESSD、ESSD AutoPLディスク、標準SSD、ウルトラディスクなど、さまざまなディスクタイプをサポートします。

  • ネットワーク:

    • IPv4アドレスとIPv6アドレスの両方をサポートします。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスは、スループットの向上とレイテンシの削減のためにインスタンス仕様に合わせてスケーリングします。

gn6iインスタンスタイプとメトリックの詳細については、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

ディスクの基本IOPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn6i-c4g1.xlarge

4

有効期限の 15

NVIDIA T4 × 1

16 GB × 1

4

500,000

なし

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 × 1

16 GB × 1

5

800,000

なし

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 × 1

16 GB × 1

6

1,000,000

なし

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 × 1

16 GB × 1

7.5

1,200,000

なし

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 × 1

16 GB × 1

10

1,600,000

なし

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 × 2

16 GB × 2

15

2,400,000

なし

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 × 4

16 GB × 4

30

4,800,000

250,000

24

8

10

1

gn6e、GPU高速化コンピューティング最適化インスタンスファミリー

  • シナリオ:

    • 画像分類、自動運転、音声認識のためのAIアルゴリズムトレーニングと推論など、ディープラーニングタスクに最適化されています。

    • 計算流体力学、計算ファイナンス、分子力学、環境分析など、科学コンピューティングのニーズに最適です。

  • コンピューティング:

    • 32 GBのNVLink接続メモリを搭載したNVIDIA V100 GPUを搭載。

    • GPUアクセラレータ: 最先端のNVIDIA Voltaアーキテクチャを活用したV100 (SXM2-based) 。

      • 革新的なNVIDIA Voltaアーキテクチャを搭載。

      • 各GPUには32 GBのHBM2メモリが付属しており、900ギガバイト/秒の帯域幅を提供します。

      • 各GPUには32 GBのHBM2メモリが含まれており、900ギガバイト/秒の帯域幅を実現します。

      • GPUごとに5,120のCUDAコアと640のTensorコアが含まれます。

      • GPUあたり最大6つのNVLink双方向接続をサポートし、各接続は両方向で25 Gbit/sの帯域幅を提供し、合計300 Gbit/sです。

    • CPUとメモリの比率は1:8です。

    • プロセッサ: Intel ®Xeon ®2.5 GHzの基本周波数を持つプラチナ8163 (Skylake) 。

  • ストレージ:

    • I/O最適化インスタンスを提供します。

    • ESSD、ESSD AutoPLディスク、標準SSD、ウルトラディスクなど、さまざまなディスクタイプをサポートします。

  • ネットワーク:

    • IPv4アドレスとIPv6アドレスの両方をサポートします。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークパフォーマンスはインスタンス仕様に合わせて拡張され、より高い仕様のインスタンスに拡張機能を提供します。

gn6eインスタンスタイプとメトリックの詳細については、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 × 1

32 GB × 1

5

800,000

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

182

NVIDIA V100 × 2

32 GB × 2

8

1,200,000

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 × 4

32 GB × 4

16

2,400,000

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 × 8

32 GB × 8

32

4,800,000

16

8

20

1

gn6v、GPU高速化コンピューティング最適化インスタンスファミリー

  • シナリオ:

    • 画像分類、自動運転、音声認識のためのAIアルゴリズムトレーニングと推論など、ディープラーニングタスクに最適化されています。

    • 計算流体力学、計算ファイナンス、分子力学、環境分析などの分野での科学コンピューティングのニーズに最適です。

  • コンピューティング:

    • NVIDIA V100 GPUを装備。

    • GPUアクセラレータ: V100 (SXM2-based) 、特集:

      • 革新的なNVIDIA Voltaアーキテクチャ。

      • 革新的なNVIDIA Voltaアーキテクチャ。

      • 16 GBのHBM2メモリ、GPUあたり900ギガバイト/秒の帯域幅を提供。

      • GPUあたり5,120 CUDAコアと640 Tensorコア。

      • GPUごとに最大6つのNVLink双方向接続があり、各接続は各方向に25 Gbit/sの帯域幅、合計300 Gbit/sを提供します。

    • CPUとメモリの比率は1:4です。

    • プロセッサ: Intel ®Xeon ®2.5 GHzの基本周波数を持つプラチナ8163 (Skylake) 。

  • ストレージ:

    • I/O最適化インスタンスを提供します。

    • ESSD、ESSD AutoPLディスク、標準SSD、ウルトラディスクなど、さまざまなディスクタイプをサポートします。

  • ネットワーク:

    • IPv4プロトコルとIPv6プロトコルの両方を容易にします。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークのパフォーマンスはインスタンスの仕様に比例し、スペックが高いほどパフォーマンスが向上します。

gn6vファミリー内のインスタンスタイプとメトリックについては、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

ディスクの基本IOPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 × 1

16 GB × 1

2.5

800,000

なし

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 × 2

16 GB × 2

5

1,000,000

なし

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 × 4

16 GB × 4

10

2,000,000

なし

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 × 8

16 GB × 8

20

2,500,000

なし

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 × 8

16 GB × 8

32

4,500,000

250,000

16

8

20

1

gn5、GPU高速化コンピューティング最適化インスタンスファミリー

  • シナリオ:

    • ディープラーニング。

    • 計算流体力学、計算ファイナンス、ゲノミクス、環境分析などの科学的コンピューティングアプリケーション。

    • 高性能コンピューティング、レンダリング、マルチメディアのエンコードとデコード、およびその他のサーバー側のGPUコンピューティングワークロード。

  • コンピューティング:

    • NVIDIA P100 GPUを装備。

    • さまざまなCPUとメモリの比率を提供します。

    • プロセッサ: Intel ®Xeon ®基本周波数2.5 GHzのE5-2682 v4 (Broadwell) 。

  • ストレージ:

    • 高性能なローカル不揮発性メモリエクスプレス (NVMe) SSDが含まれています。

    • I/O最適化インスタンス。

    • 標準SSDおよびウルトラディスクを含むディスクタイプをサポートします。

  • ネットワーク:

    • IPv4サポートのみ。

    • ネットワークのパフォーマンスはインスタンスの仕様に比例します。仕様が高いほど、ネットワーク機能が強化されます。

gn5ファミリー内のインスタンスタイプとメトリックについては、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

ローカルストレージ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

ecs.gn5-c4g1.xlarge

4

30

440

NVIDIA P100 × 1

16 GB × 1

3

300,000

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

440

NVIDIA P100 × 1

16 GB × 1

3

400,000

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

880

NVIDIA P100 × 2

16 GB × 2

5

1,000,000

2

4

10

ecs.gn5-c8g1.4xlarge

16

120

880

NVIDIA P100 × 2

16 GB × 2

5

1,000,000

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

440

NVIDIA P100 × 1

16 GB × 1

5

1,000,000

8

8

20

ecs.gn5-c8g1.8xlarge

32

240

1,760

NVIDIA P100 × 4

16 GB × 4

10

2,000,000

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

880

NVIDIA P100 × 2

16 GB × 2

10

2,000,000

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

3,520

NVIDIA P100 × 8

16 GB × 8

25

4,000,000

14

8

20

gn5i、GPU高速化コンピューティング最適化インスタンスファミリー

  • シナリオ: ディープラーニングの推論、マルチメディアのエンコードとデコード、およびGPUを多用するさまざまなサーバーサイド計算に適しています。

  • コンピューティング:

    • NVIDIA P4 GPUを装備。

    • CPUとメモリの比率は1:4です。

    • プロセッサ: Intel ®Xeon ®基本周波数2.5 GHzのE5-2682 v4 (Broadwell) 。

  • ストレージ

    • I/Oパフォーマンスに最適化。

    • 標準SSDとウルトラディスクの両方をサポートします。

  • ネットワーク

    • IPv4アドレスとIPv6アドレスの両方をサポートします。 IPv6通信の詳細については、「IPv6通信」をご参照ください。

    • ネットワークのパフォーマンスはインスタンスの仕様に比例します。仕様が高いほどパフォーマンスが向上します。

gn5iインスタンスタイプとそのメトリックの詳細については、以下の表を参照してください。

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベース帯域幅 (Gbit/s)

パケット転送PPS

マルチキュー

Elastic network interface (ENI)

NICあたりのプライベートIPv4アドレスの数

NICあたりのIPv6アドレス数

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 × 1

8 GB × 1

1

100,000

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 × 1

8 GB × 1

1.5

200,000

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 × 1

8 GB × 1

2

400,000

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 × 1

8 GB × 1

3

800,000

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 × 2

8 GB × 2

6

1,200,000

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 × 2

8 GB × 2

10

2,000,000

14

8

20

1