すべてのプロダクト
Search
ドキュメントセンター

Elastic GPU Service:GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー (gn、ebm、および scc シリーズ)

最終更新日:Jun 10, 2025

GPU アクセラレーテッド コンピューティング最適化インスタンスは、高パフォーマンスと高並列コンピューティング機能を提供し、大規模並列コンピューティングシナリオに適しています。GPU アクセラレーテッド コンピューティング最適化インスタンスを使用することで、ビジネスのコンピューティングパフォーマンスと効率を向上させることができます。このトピックでは、Elastic Compute Service (ECS) の GPU アクセラレーテッド コンピューティング最適化インスタンスファミリーの機能について説明し、各インスタンスファミリーのインスタンスタイプの一覧を示します。

背景情報

このトピックを読み進める前に、以下の情報について理解しておく必要があります。

  • インスタンスタイプの分類と命名。インスタンスファミリーカテゴリ、インスタンスタイプの命名規則、インスタンスファミリー間の違いについて理解しておいてください。詳細については、「インスタンスタイプの分類と命名」をご参照ください。

  • インスタンスタイプのメトリック。インスタンスタイプのメトリックについては、「インスタンスタイプのメトリック」をご参照ください。DescribeInstanceTypeFamilies および DescribeInstanceTypes オペレーションを呼び出して、ECS が提供するインスタンスファミリーとすべてのインスタンスタイプの詳細をクエリすることもできます。

  • ビジネスシナリオに基づいたインスタンスタイプの選択手順。詳細については、「インスタンスタイプの選択」をご参照ください。

ユースケースのインスタンスタイプを決定したら、以下の情報について学習する必要がある場合があります。

  • インスタンスタイプを購入できるリージョン。購入可能なインスタンスタイプは、リージョンによって異なります。各リージョンで使用可能なインスタンスタイプ ページにアクセスして、各リージョンで購入可能なインスタンスタイプを表示できます。または、DescribeRegions および DescribeZones オペレーションを呼び出して、サポートされているリージョンと特定のリージョン内のゾーンをクエリすることもできます。

  • インスタンスの推定コスト価格計算ツール で、さまざまな課金方法を使用するインスタンスの価格を計算できます。DescribePrice オペレーションを呼び出して、ECS リソースの最新価格に関する情報をクエリすることもできます。

  • インスタンス購入手順ECS インスタンス購入ページ にアクセスして、インスタンスの購入注文を行うことができます。

以下の情報について懸念があるかもしれません。

  • 廃止されたインスタンスファミリー。このトピックでインスタンスタイプが見つからない場合は、そのインスタンスタイプが廃止されたインスタンスファミリーにある可能性があります。廃止されたインスタンスファミリーについては、「廃止されたインスタンスタイプ」をご参照ください。

  • サポートされているインスタンスタイプの変更。インスタンスのインスタンスタイプを変更する前に、インスタンスタイプを変更できるかどうかを確認し、互換性のあるインスタンスタイプを特定します。詳細については、「インスタンスタイプの変更」をご参照ください。

カテゴリ

リファレンス

GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー (gn シリーズ)

ECS Bare Metal Instance ファミリー

推奨されないインスタンスファミリー (インスタンスファミリーが売り切れの場合、上記のインスタンスファミリーを使用することをお勧めします。)

gn8v および gn8v-tee、GPU コンピューティング最適化インスタンスファミリー

gn8v および gn8v-tee インスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。インスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。

  • 概要

    • gn8v:このインスタンスファミリーは、Alibaba Cloud が提供する第 8 世代 GPU コンピューティング最適化インスタンスファミリーであり、AI モデルのトレーニングと超巨大言語モデル(LLM)の推論タスクに適しています。このインスタンスファミリーは、インスタンスごとに 1、2、4、または 8 つの GPU を提供する複数のインスタンスタイプで構成されています。

    • gn8v-tee:このインスタンスファミリーは、LLM を使用してトレーニングおよび推論タスクを実行するためのセキュリティ要件を満たすために、gn8v インスタンスファミリーに基づいて Alibaba Cloud がリリースした第 8 世代 GPU コンピューティング最適化インスタンスファミリーです。 gn8v-tee インスタンスファミリーは機密コンピューティング機能を提供し、GPU 計算中にデータを暗号化してユーザーデータのセキュリティを確保します。

  • 対応シナリオ

    • 700 億以上のパラメーターを持つ LLM のマルチ GPU 並列推論コンピューティング

    • 従来の AI モデルのトレーニングと自動運転トレーニング。各 GPU は、単精度浮動小数点形式(FP32)で最大 39.5 TFLOPS のコンピューティング能力を提供します。

    • 8 つの GPU 間の NVLink 接続を活用する中小規模のモデルのトレーニングシナリオ

  • メリットとポジショニング

    • 高速で大容量の GPU メモリ:各 GPU には 96 GB の HBM3 メモリが搭載されており、最大 4 TB/s のメモリ帯域幅を提供します。これにより、モデルのトレーニングと推論が大幅に高速化されます。

    • GPU 間の高い帯域幅:複数の GPU は、900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU インスタンスよりもはるかに高くなっています。

    • LLM の量子化:このインスタンスファミリーは、8 ビット浮動小数点形式(FP8)のコンピューティング能力をサポートし、大規模パラメーターのトレーニングと推論のコンピューティング能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。

    • (gn8v-tee インスタンスファミリーのみ)高セキュリティ:gn8v-tee インスタンスファミリーは、モデル推論タスクの全リンクをカバーする機密コンピューティング機能をサポートしています。この機能には、CPU ベースの Intel Trust Domain Extensions(TDX)機密コンピューティングと GPU ベースの NVIDIA Confidential Computing(CC)が含まれます。機密コンピューティング機能は、モデルの推論とトレーニングにおいて、ユーザーの推論データとエンタープライズモデルのセキュリティを確保します。

  • コンピューティング

    • 最新のクラウドインフラストラクチャ処理ユニット(CIPU)1.0 プロセッサを使用します。

      • コンピューティング機能とストレージ機能を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できます。

      • GPU インスタンス間のピアツーピア(P2P)通信をサポートするベアメタル機能を提供します。

    • 最大 2.8 GHz のベース周波数と最大 3.1 GHz の全コアターボ周波数を提供する第 4 世代 Intel Xeon スケーラブルプロセッサを使用します。

  • ストレージ

  • ネットワーク

    • IPv4 と IPv6 をサポートしています。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • ジャンボフレーム機能をサポートしています。詳細については、「ジャンボフレーム」をご参照ください。

    • 最大 30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します(8 つの GPU を搭載したインスタンスの場合)。

    • 弾性 RDMA インターフェース(ERI)をサポートしています。

      説明

      ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を有効にする」をご参照ください。

gn8v インスタンスタイプ

インスタンスタイプ

vCPU

メモリ(GiB)

GPU メモリ

ネットワークベースライン帯域幅(Gbit/s)

ENI

プライマリ ENI あたりの NIC キュー

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大クラウドディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅(Gbit/s)

ecs.gn8v.4xlarge

16

96

96 GB * 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v.6xlarge

24

128

96 GB * 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-2x.8xlarge

32

192

96 GB * 2

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-4x.8xlarge

32

384

96 GB * 4

20

8

32

30

30

25

200,000

1.25

ecs.gn8v-2x.12xlarge

48

256

96 GB * 2

25

8

48

30

30

33

300,000

1.50

ecs.gn8v-8x.16xlarge

64

768

96 GB * 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-4x.24xlarge

96

512

96 GB * 4

50

15

64

30

30

49

500,000

3

ecs.gn8v-8x.48xlarge

192

1,024

96 GB * 8

100

15

64

50

50

65

1,000,000

6

gn8v-tee インスタンスタイプ

インスタンスタイプ

vCPU

メモリ(GiB)

GPU メモリ

ネットワークベースライン帯域幅(Gbit/s)

ENI

プライマリ ENI あたりの NIC キュー

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

最大クラウドディスク数

ディスクベースライン IOPS

ディスクベースライン帯域幅(Gbit/s)

ecs.gn8v-tee.4xlarge

16

96

96 GB * 1

12

8

16

30

30

17

100,000

0.75

ecs.gn8v-tee.6xlarge

24

128

96 GB × 1

15

8

24

30

30

17

120,000

0.937

ecs.gn8v-tee-8x.16xlarge

64

768

96 GB × 8

32

8

64

30

30

33

360,000

2.5

ecs.gn8v-tee-8x.48xlarge

192

1,024

96 GB * 8

100

15

64

50

50

65

1,000,000

6

gn8v および gn8v-tee、GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国以外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にご連絡ください。

  • 前提条件

  • メリットとポジショニング:

    • グラフィック処理: このインスタンスファミリーは、高周波数の第 5 世代 Intel Xeon Scalable プロセッサを使用し、3D モデリングシナリオでのスムーズなグラフィックレンダリングと設計に十分な CPU キャパシティを提供します。

    • 推論タスク: このインスタンスファミリーは、それぞれ 48 GB のメモリを搭載した革新的な GPU を使用しており、推論タスクを高速化し、FP8 浮動小数点フォーマットをサポートします。 このインスタンスファミリーを Container Service for Kubernetes (ACK) と組み合わせて使用することで、さまざまな AI 生成コンテンツ (AIGC) モデルの推論をサポートし、特に 700 億未満のパラメーターを持つ LLM の推論タスクに対応できます。

  • 1. リソース グループを作成する

    • アニメーション、映画やテレビの特殊効果、レンダリング

    • AIGC 画像の生成と LLM の推論

    • その他の汎用 AI 認識、画像認識、音声認識シナリオ

  • コンピューティング:

    • 以下の機能を備えた革新的な GPU を使用します。

      • TensorRT などのアクセラレーション機能と FP8 浮動小数点フォーマットをサポートし、LLM 推論パフォーマンスを向上させます。

      • GPU あたり最大 48 GB のメモリを搭載し、複数の GPU を搭載した単一インスタンスで 70B 以上の LLM の推論をサポートします。

      • グラフィック処理機能が向上しています。たとえば、クラウドアシスタントまたは Alibaba Cloud Marketplace のイメージを使用して gn8is インスタンスに GRID ドライバーをインストールすると、インスタンスは第 7 世代インスタンスの 2 倍のグラフィック処理パフォーマンスを提供できます。

    • 最新のハイエンド Intel® Xeon® プロセッサを使用し、3.9 GHz の全コアターボ周波数を実現することで、複雑な 3D モデリング要件に対応します。

  • ストレージ:

  • ネットワーク:

gn8is インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワーク ベースライン帯域幅 (Gbit/s)

ENI

プライマリ ENI あたりの NIC キュー数

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

最大ディスク数

ディスク ベースライン IOPS

ディスク ベースライン帯域幅 (Gbit/s)

ecs.gn8is.2xlarge

8

64

48GB * 1

8

4

8

15

15

17

60,000

0.75

ecs.gn8is.4xlarge

16

128

48GB * 1

16

8

16

30

30

17

120,000

1.25

ecs.gn8is-2x.8xlarge

32

256

48GB * 2

32

8

32

30

30

33

250,000

2

ecs.gn8is-4x.16xlarge

64

512

48GB * 4

64

8

64

30

30

33

450,000

4

ecs.gn8is-8x.32xlarge

128

1,024

48GB * 8

100

15

64

50

50

65

900,000

8

gn7e、GPU コンピューティング最適化インスタンスファミリー

特長:

  • 概要:

    • このインスタンスファミリーでは、AI ユースケースのビジネス要件に合わせて、異なる数の GPU と CPU を搭載したインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第 3 世代の SHENLONG アーキテクチャを使用しており、仮想プライベートクラウド (VPC)、ネットワーク、およびディスクの平均帯域幅が前世代のインスタンスファミリーと比較して 2 倍になっています。

  • 対応シナリオ:

    • 小規模および中規模の AI トレーニング

    • Compute Unified Device Architecture (CUDA) を使用して高速化されたハイパフォーマンスコンピューティング (HPC) 業務

    • 高い GPU 処理能力または大量の GPU メモリを必要とする AI 推論タスク

    • 画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどのディープラーニングアプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU 計算能力を必要とする科学計算アプリケーション

    重要

    Transformer モデルなど、通信負荷の高い AI トレーニングサービスを使用する場合は、GPU 間通信のために NVLink を有効にする必要があります。有効にしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ転送によって発生する予期しない障害により、データが破損する可能性があります。AI トレーニングサービスで使用される通信リンクのトポロジが不明な場合は、チケットを送信してテクニカルサポートを受けてください。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模な計算能力に基づいて、高いネットワークパフォーマンスを提供します。

gn7e インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn7e-c16g1.4xlarge

16

125

80GB * 1

8

3,000,000

8

8

10

1

ecs.gn7e-c16g1.8xlarge

32

250

80GB * 2

16

6,000,000

16

8

10

1

ecs.gn7e-c16g1.16xlarge

64

500

80GB * 4

32

12,000,000

32

8

10

1

ecs.gn7e-c16g1.32xlarge

128

1,000

80GB * 8

64

24,000,000

32

16

15

1

gn7i、GPU コンピューティング最適化インスタンスファミリー

  • 概要: このインスタンスファミリーは、第 3 世代神龍アーキテクチャを使用して、予測可能で一貫した超高パフォーマンスを提供します。このインスタンスファミリーは、チップ上の高速パスアクセラレーションを利用して、ストレージパフォーマンス、ネットワークパフォーマンス、およびコンピューティングの安定性を桁違いに向上させます。

  • 対応シナリオ:

    • 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能な 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク

  • コンピューティング:

    • 以下の機能を備えた NVIDIA A10 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • RTX や TensorRT などのアクセラレーション機能のサポート

    • オールコアターボ周波数 3.5 GHz を実現する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。

    • gn6i インスタンスファミリーのメモリサイズよりもはるかに大きい、最大 752 GiB のメモリを提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn7i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn7i-c8g1.2xlarge

8

30

NVIDIA A10 * 1

24GB * 1

16

1,600,000

8

4

15

15

ecs.gn7i-c16g1.4xlarge

16

60

NVIDIA A10 * 1

24GB * 1

16

3,000,000

8

8

30

30

ecs.gn7i-c32g1.8xlarge

32

188

NVIDIA A10 * 1

24GB * 1

16

6,000,000

12

8

30

30

ecs.gn7i-c32g1.16xlarge

64

376

NVIDIA A10 * 2

24GB * 2

32

12,000,000

16

15

30

30

ecs.gn7i-c32g1.32xlarge

128

752

NVIDIA A10 * 4

24GB * 4

64

24,000,000

32

15

30

30

ecs.gn7i-c48g1.12xlarge

48

310

NVIDIA A10 * 1

24GB * 1

16

9,000,000

16

8

30

30

ecs.gn7i-c56g1.14xlarge

56

346

NVIDIA A10 * 1

24GB * 1

16

10,000,000

16

8

30

30

ecs.gn7i-2x.8xlarge

32

128

NVIDIA A10 * 2

24GB * 2

16

6,000,000

16

8

30

30

ecs.gn7i-4x.8xlarge

32

128

NVIDIA A10 * 4

24GB * 4

16

6,000,000

16

8

30

30

ecs.gn7i-4x.16xlarge

64

256

NVIDIA A10 * 4

24GB * 4

32

12,000,000

32

8

30

30

ecs.gn7i-8x.32xlarge

128

512

NVIDIA A10 * 8

24GB * 8

64

24,000,000

32

16

30

30

ecs.gn7i-8x.16xlarge

64

256

NVIDIA A10 * 8

24GB * 8

32

12,000,000

32

8

30

30

重要

以下のインスタンスタイプは、ecs.gn7i-c8g1.2xlarge または ecs.gn7i-c16g1.4xlarge にのみ変更できます: ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge、および ecs.gn7i-8x.16xlarge。

gn7s、GPU コンピューティング最適化インスタンスファミリー

gn7s インスタンスファミリーを使用するには、チケットを送信する

  • 概要:

    • このインスタンスファミリーは、最新の Intel Ice Lake プロセッサと、NVIDIA Ampere アーキテクチャに基づく NVIDIA A30 GPU を使用します。AI シナリオでのビジネス要件に合わせて、GPU と vCPU の適切な組み合わせで構成されるインスタンスタイプを選択できます。

    • このインスタンスファミリーは、第 3 世代 SHENLONG アーキテクチャを使用し、前世代のインスタンスファミリーと比較して、VPC、ネットワーク、およびディスクの平均帯域幅を 2 倍にします。

  • 対応シナリオ: 画像認識、音声認識、行動識別など、高性能な CPU、メモリ、GPU を必要とする同時 AI 推論タスク。

  • コンピューティング:

    • 以下の特徴を持つ NVIDIA A30 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • マルチインスタンス GPU(MIG)機能とアクセラレーション機能(第 2 世代 Tensor コアに基づく)のサポートにより、多様なビジネスサポートを提供

    • オールコアターボ周波数 3.5 GHz を実現する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。

    • 前世代のインスタンスファミリーからメモリサイズが大幅に向上しています。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn7s インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

NIC キュー

ENI

ecs.gn7s-c8g1.2xlarge

8

60

NVIDIA A30 × 1

24GB × 1

16

1,600,000

5

1

8

4

ecs.gn7s-c16g1.4xlarge

16

120

NVIDIA A30 × 1

24GB × 1

16

3,000,000

5

1

8

8

ecs.gn7s-c32g1.8xlarge

32

250

NVIDIA A30 × 1

24GB × 1

16

6,000,000

5

1

12

8

ecs.gn7s-c32g1.16xlarge

64

500

NVIDIA A30 × 2

24GB × 2

32

12,000,000

5

1

16

15

ecs.gn7s-c32g1.32xlarge

128

1,000

NVIDIA A30 × 4

24GB × 4

64

24,000,000

10

1

32

15

ecs.gn7s-c48g1.12xlarge

48

380

NVIDIA A30 × 1

24GB × 1

16

9,000,000

8

1

16

8

ecs.gn7s-c56g1.14xlarge

56

440

NVIDIA A30 × 1

24GB × 1

16

10,000,000

8

1

16

8

gn7、GPU コンピューティング最適化インスタンスファミリー

  • 対応シナリオ:

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションなどのディープラーニング アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング機能を必要とする科学計算アプリケーション

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn7 インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn7-c12g1.3xlarge

12

94

40GB * 1

4

2,500,000

4

8

10

1

ecs.gn7-c13g1.13xlarge

52

378

40GB * 4

16

9,000,000

16

8

30

30

ecs.gn7-c13g1.26xlarge

104

756

40GB * 8

30

18,000,000

16

15

10

1

gn6i、GPU コンピューティング最適化インスタンスファミリー

  • 対応シナリオ:

    • コンピュータビジョン、音声認識、音声合成、自然言語処理 ( NLP )、機械翻訳、レコメンデーションシステム向けの AI ( ディープ ラーニングおよび機械学習 ) 推論

    • クラウドゲームのリアルタイムレンダリング

    • AR および VR アプリケーションのリアルタイムレンダリング

    • グラフィックワークステーションまたはグラフィックを多用するコンピューティング

    • GPU アクセラレーションデータベース

    • ハイパフォーマンスコンピューティング

  • コンピューティング:

    • 以下の特徴を持つ NVIDIA T4 GPU を使用します。

      • 革新的な NVIDIA Turing アーキテクチャ

      • GPU あたり 16 GB のメモリ ( 320 GB/s の帯域幅 )

      • GPU あたり 2,560 CUDA コア

      • GPU あたり最大 320 Turing Tensor コア

      • 65 FP16 TFLOPS、130 INT8 TOPS、および 260 INT4 TOPS をサポートする混合精度 Tensor コア

    • 1:4 の CPU とメモリの比率を提供します。

    • 2.5 GHz Intel® Xeon® Platinum 8163 ( Skylake ) プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 および IPv6 をサポートします。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn6i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ ( GiB )

GPU

GPU メモリ

ネットワークベースライン帯域幅 ( Gbit/s )

パケット転送速度 ( pps )

ディスクベースライン IOPS

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn6i-c4g1.xlarge

4

15

NVIDIA T4 * 1

16GB * 1

4

2,500,000

なし

2

2

10

1

ecs.gn6i-c8g1.2xlarge

8

31

NVIDIA T4 * 1

16GB * 1

5

2,500,000

なし

2

2

10

1

ecs.gn6i-c16g1.4xlarge

16

62

NVIDIA T4 * 1

16GB * 1

6

2,500,000

なし

4

3

10

1

ecs.gn6i-c24g1.6xlarge

24

93

NVIDIA T4 * 1

16GB * 1

7.5

2,500,000

なし

6

4

10

1

ecs.gn6i-c40g1.10xlarge

40

155

NVIDIA T4 * 1

16GB * 1

10

1,600,000

なし

16

10

10

1

ecs.gn6i-c24g1.12xlarge

48

186

NVIDIA T4 * 2

16GB * 2

15

4,500,000

なし

12

6

10

1

ecs.gn6i-c24g1.24xlarge

96

372

NVIDIA T4 * 4

16GB * 4

30

4,500,000

250,000

24

8

10

1

gn6e、GPU コンピューティング最適化インスタンスファミリー

  • 対応シナリオ:

    • 画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションや推論アプリケーションなどのディープラーニング アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション

  • コンピューティング:

    • それぞれ 32 GB の GPU メモリを搭載し、NVLink をサポートする NVIDIA V100 GPU を使用します。

    • 以下の機能を備えた NVIDIA V100 GPU(SXM2 ベース)を使用します。

      • 革新的な NVIDIA Volta アーキテクチャ

      • GPU あたり 32 GB の HBM2 メモリ(900 GB/秒の帯域幅)

      • GPU あたり 5,120 CUDA コア

      • GPU あたり 640 Tensor コア

      • GPU あたり最大 6 つの NVLink 双方向接続。各接続は、双方向で 25 Gbit/秒の帯域幅を提供し、合計帯域幅は 300 Gbit/秒(6 × 25 × 2 = 300)です。

    • CPU とメモリの比率は 1:8 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn6e インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/秒)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn6e-c12g1.3xlarge

12

92

NVIDIA V100 × 1

32GB × 1

5

800,000

8

6

10

1

ecs.gn6e-c12g1.6xlarge

24

184

NVIDIA V100 × 2

32GB × 2

8

1,200,000

8

8

20

1

ecs.gn6e-c12g1.12xlarge

48

368

NVIDIA V100 × 4

32GB × 4

16

2,400,000

8

8

20

1

ecs.gn6e-c12g1.24xlarge

96

736

NVIDIA V100 × 8

32GB × 8

32

4,500,000

16

8

20

1

gn6v、GPU コンピューティング最適化インスタンスファミリー

  • 対応シナリオ:

    • 画像分類、自動運転、音声認識で使用される AI アルゴリズムのトレーニング アプリケーションや推論アプリケーションなどのディープラーニング アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション

  • コンピューティング:

    • NVIDIA V100 GPU を使用します。

    • 以下の特徴を持つ NVIDIA V100 GPU(SXM2 ベース)を使用します。

      • 革新的な NVIDIA Volta アーキテクチャ

      • GPU あたり 16 GB の HBM2 メモリ(900 GB/s の帯域幅)

      • GPU あたり 5,120 CUDA コア

      • GPU あたり 640 Tensor コア

      • GPU あたり最大 6 つの NVLink 双方向接続。各接続は、双方向で 25 Gbit/s の帯域幅を提供し、合計帯域幅は 300 Gbit/s(6 × 25 × 2 = 300)です。

    • CPU とメモリの比率は 1:4 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn6v インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

ディスクベースライン IOPS

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.gn6v-c8g1.2xlarge

8

32

NVIDIA V100 * 1

16GB * 1

2.5

800,000

なし

4

4

10

1

ecs.gn6v-c8g1.4xlarge

16

64

NVIDIA V100 * 2

16GB * 2

5

1,000,000

なし

4

8

20

1

ecs.gn6v-c8g1.8xlarge

32

128

NVIDIA V100 * 4

16GB * 4

10

2,000,000

なし

8

8

20

1

ecs.gn6v-c8g1.16xlarge

64

256

NVIDIA V100 * 8

16GB * 8

20

2,500,000

なし

16

8

20

1

ecs.gn6v-c10g1.20xlarge

82

336

NVIDIA V100 * 8

16GB * 8

32

4,500,000

250,000

16

8

20

1

ebmgn8v、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー

このインスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にお問い合わせください。

  • 概要: このインスタンスファミリーは、AI モデルのトレーニングと超大規模モデル向けに Alibaba Cloud が提供する第 8 世代 GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリーです。このインスタンスファミリーの各インスタンスには、8 つの GPU が搭載されています。

  • 対応シナリオ:

    • 700 億以上のパラメーターを持つ大規模言語モデル (LLM) のマルチ GPU 並列推論コンピューティング

    • 従来の AI モデルのトレーニングと自動運転トレーニング。各 GPU は、単精度浮動小数点形式 (FP32) で最大 39.5 TFLOPS のコンピューティング能力を提供します。

    • 8 つの GPU 間の NVLink 接続を活用する中小規模のモデルトレーニングシナリオ

  • メリットとポジショニング:

    • 高速で大容量の GPU メモリ: 各 GPU には 96 GB の HBM3 メモリが搭載されており、最大 4 TB/s のメモリ帯域幅を提供します。これにより、モデルのトレーニングと推論が大幅に高速化されます。

    • GPU 間の高帯域幅: 複数の GPU は、900 GB/s の NVLink 接続を使用して相互接続されています。マルチ GPU トレーニングと推論の効率は、前世代の GPU アクセラレーテッドインスタンスよりもはるかに高くなっています。

    • 大規模モデルの量子化: このインスタンスファミリーは、8 ビット浮動小数点形式 (FP8) のコンピューティング能力をサポートし、大規模パラメーターのトレーニングと推論のコンピューティング能力を最適化します。これにより、トレーニングと推論の計算速度が大幅に向上し、メモリ使用量が削減されます。

  • コンピューティング:

    • 最新の CIPU 1.0 プロセッサを使用します。

      • コンピューティング機能とストレージ機能を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようになり、インスタンス間の帯域幅が 160 Gbit/s に増加し、第 7 世代インスタンスファミリーと比較してデータ転送と処理が高速化されます。

      • CIPU プロセッサが提供するベアメタル機能を使用して、GPU アクセラレーテッドインスタンス間のピアツーピア (P2P) 通信をサポートします。

    • 最大 3.1 GHz の全コアターボ周波数を備えた第 4 世代 Intel Xeon スケーラブルプロセッサを使用し、192 個の vCPU を提供します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。

    • エラスティック RDMA インターフェース (ERI) をサポートし、VPC で Remote Direct Memory Access (RDMA) に基づくインスタンス間通信を可能にし、インスタンスあたり最大 160 Gbit/s の帯域幅を提供します。これは、CV モデルと従来のモデルに基づくトレーニングタスクに適しています。

      説明

      ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を構成する」をご参照ください。

ebmgn8v インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

NIC キュー (プライマリ ENI/セカンダリ ENI)

ENI

最大接続データディスク数

最大ディスク帯域幅 (Gbit/s)

ecs.ebmgn8v.48xlarge

192

1,024

96GB*8

160 (80 × 2)

30,000,000

30

30

64

32

31

6

説明

このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは、UEFI である必要があります。インスタンスでカスタムイメージを使用する場合は、イメージが UEFI ブートモードをサポートし、イメージのブートモードが UEFI に設定されていることを確認してください。カスタムイメージのブートモードの設定方法については、「API オペレーションを呼び出してカスタムイメージのブートモードを UEFI モードに設定する」をご参照ください。

gn8is、GPU アクセラレーテッド コンピューティング最適化インスタンスファミリー

このインスタンスファミリーは、中国国外のリージョンを含む特定のリージョンでのみ利用可能です。このインスタンスファミリーを使用するには、Alibaba Cloud の営業担当者にご連絡ください。

  • はじめに: このインスタンスファミリーは、AI 生成分野の最近の動向に対応して Alibaba Cloud が提供する第 8 世代 GPU アクセラレーションコンピューティング最適化 ECS ベアメタルインスタンスファミリーです。このインスタンスファミリーの各インスタンスには 8 つの GPU が搭載されています。

  • 対応シナリオ:

    • Alibaba Cloud Marketplace GRID イメージが使用され、GRID ドライバーがインストールされ、OpenGL および Direct3D グラフィック機能が有効になっているシナリオでの、ワークステーションレベルのグラフィック処理機能に基づくアニメーション、映画、テレビの特殊効果の制作とレンダリング

    • コンテナー化アプリケーション向けの Container Service for Kubernetes (ACK) が提供する管理サービスを使用して、最大 1,300 億のパラメーターを持つ AI 生成グラフィックコンテンツと LLM 推論タスクをサポートするシナリオ

    • その他の汎用 AI 認識、画像認識、音声認識シナリオ

  • メリットとポジショニング:

    • グラフィック処理: このインスタンスファミリーは、高周波数の第 5 世代 Intel Xeon スケーラブルプロセッサーを使用して、3D モデリングシナリオで十分な CPU 計算能力を提供し、スムーズなグラフィックレンダリングとデザインを実現します。

    • 推論タスク: このインスタンスファミリーは、それぞれ 48 GB のメモリを搭載した革新的な GPU を使用しており、推論タスクを高速化し、FP8 浮動小数点形式をサポートします。このインスタンスファミリーを ACK と共に使用して、さまざまな AI 生成コンテンツ (AIGC) モデルの推論をサポートし、700 億未満のパラメーターを持つ LLM の推論タスクに対応できます。

    • トレーニングタスク: このインスタンスファミリーは、費用対効果の高い計算能力を提供し、第 7 世代推論インスタンスの 2 倍の FP32 計算パフォーマンスを提供します。このインスタンスファミリーのインスタンスは、FP32 ベースの CV モデルやその他の中小規模モデルのトレーニングに適しています。

  • 以下のメリットを提供する最新の CIPU 1.0 プロセッサーを使用します。

    • 計算能力とストレージ能力を切り離すことで、ビジネス要件に基づいてストレージリソースを柔軟に選択できるようになり、インスタンス間の帯域幅が 160 Gbit/s に増加し、前世代のインスタンスファミリーと比較してデータの転送と処理が高速になります。

    • CIPU プロセッサーが提供するベアメタル機能を使用して、GPU アクセラレーションインスタンス間の Peripheral Component Interconnect Express (PCIe) P2P 通信をサポートします。

  • コンピューティング:

    • 以下の機能を備えた革新的な GPU を使用します。

      • vGPU、RTX テクノロジー、TensorRT 推論エンジンなどのアクセラレーション機能のサポート

      • PCIe スイッチ相互接続のサポート。これにより、CPU 直接接続方式と比較して NVIDIA Collective Communications Library (NCCL) パフォーマンスが 36% 向上し、複数の GPU で LLM 推論タスクを並列実行する場合の推論パフォーマンスが最大 9% 向上します。

      • 1 インスタンスあたり 8 つの GPU (GPU あたり 48 GB のメモリ) をサポートし、単一インスタンスで 700 億以上のパラメーターを持つ LLM 推論タスクをサポートします。

    • 最大 3.9 GHz の全コアターボ周波数を備えた 3.4 GHz Intel® Xeon® スケーラブル (SPR) プロセッサーを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 30,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。

    • ERI をサポートして、VPC 内のインスタンス間 RDMA ベースの通信を可能にし、インスタンスあたり最大 160 Gbit/s の帯域幅を提供します。これは、CV モデルと従来のモデルに基づくトレーニングタスクに適しています。

      説明

      ERI の使用方法については、「エンタープライズレベルインスタンスで eRDMA を構成する」をご参照ください。

ebmgn8is インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

NIC キュー (プライマリ ENI/セカンダリ ENI)

ENI

最大接続データディスク数

最大ディスク帯域幅 (Gbit/s)

ecs.ebmgn8is.32xlarge

128

1,024

48GB*8

160 (80 × 2)

30,000,000

30

30

64/16

32

31

6

説明

このインスタンスファミリーのインスタンスで使用されるイメージのブートモードは UEFI である必要があります。インスタンスでカスタムイメージを使用する場合は、イメージが UEFI ブートモードをサポートし、イメージのブートモードが UEFI に設定されていることを確認してください。カスタムイメージのブートモードを設定する方法については、「API 操作を呼び出してカスタムイメージのブートモードを UEFI モードに設定する」をご参照ください。

ebmgn7e、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー

  • 概要: このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義のコンピューティングを提供します。

  • 対応シナリオ:

    • ディープラーニングのトレーニングと開発

    • ハイパフォーマンスコンピューティング (HPC) およびシミュレーション

    重要

    Transformer モデルなど、通信負荷の高い AI トレーニングサービスを使用する場合は、GPU 間通信のために NVLink を有効にする必要があります。有効にしないと、Peripheral Component Interconnect Express (PCIe) リンクを介した大規模なデータ転送によって発生する予期しない障害により、データが破損する可能性があります。 AI トレーニングサービスで使用される通信リンクのトポロジが不明な場合は、[チケットの送信]を行い、テクニカルサポートを受けてください。

  • コンピューティング:

    • 2.9 GHz Intel® Xeon® スケーラブルプロセッサを使用し、全コアターボ周波数 3.5 GHz を実現し、PCIe 4.0 インターフェースをサポートします。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートします。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 24,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。

ebmgn7e インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー (プライマリ NIC/セカンダリ NIC)

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.ebmgn7e.32xlarge

128

1,024

80GB * 8

64

24,000,000

32/12

32

10

1

ebmgn7e インスタンスを起動した後、マルチインスタンス GPU (MIG) 機能のステータスを確認し、MIG 機能を有効または無効にする必要があります。 MIG 機能の詳細については、「NVIDIA Multi-Instance GPU User Guide」をご参照ください。

次の表は、ebmgn7e インスタンスファミリーのインスタンスタイプで MIG 機能がサポートされているかどうかを示しています。

インスタンスタイプ

MIG のサポート

説明

ecs.ebmgn7e.32xlarge

はい

MIG 機能は ebmgn7e インスタンスでサポートされています。

ebmgn7i、GPU アクセラレーテッドコンピューティング最適化型 ECS ベアメタルインスタンスファミリー

  • 概要: このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義型コンピューティングを提供します。

  • 対応シナリオ:

    • 画像認識、音声認識、行動識別など、高性能 CPU、メモリ、GPU を必要とする同時 AI 推論タスク

    • リモートグラフィックデザインやクラウドゲームなど、高性能 3D グラフィックス仮想化機能を必要とするコンピューティング負荷の高いグラフィック処理タスク

    • 高性能レンダーファームの作成など、高いネットワーク帯域幅とディスク帯域幅を必要とするシナリオ

    • 高いネットワーク帯域幅を必要とする小規模ディープ ラーニングおよびトレーニング アプリケーション

  • コンピューティング:

    • 以下の機能を備えた NVIDIA A10 GPU を使用します。

      • 革新的な NVIDIA Ampere アーキテクチャ

      • vGPU、RTX テクノロジー、TensorRT 推論エンジンなどのアクセラレーション機能のサポート

    • オールコアターボ周波数 3.5 GHz を実現する 2.9 GHz Intel® Xeon® Scalable (Ice Lake) プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 24,000,000 pps のパケット転送速度で超高ネットワークパフォーマンスを提供します。

ebmgn7i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.ebmgn7i.32xlarge

128

768

NVIDIA A10 * 4

24GB * 4

64

24,000,000

32

32

10

1

ebmgn7、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー

  • 概要: このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

  • 対応シナリオ:

    • 画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングアプリケーションなどの深層学習アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析など、堅牢な GPU コンピューティング機能を必要とする科学計算アプリケーション

  • コンピューティング:

    • 2.5 GHz Intel® Xeon® Platinum 8269CY (Cascade Lake) プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

ebmgn7 インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス数

ENI あたりの IPv6 アドレス数

ecs.ebmgn7.26xlarge

104

768

40GB*8

30

18,000,000

16

15

10

1

ebmgn7 インスタンスを起動した後、MIG 機能のステータスを手動で確認し、MIG 機能を有効または無効にする必要があります。MIG の詳細については、「MIG ユーザーガイド」をご参照ください。

次の表は、ebmgn7 インスタンスで MIG 機能がサポートされているかどうかを示しています。

インスタンスタイプ

MIG のサポート

説明

ecs.ebmgn7.26xlarge

はい

ebmgn7 インスタンスでは、MIG 機能がサポートされています。

ebmgn6e、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー

  • 概要:

    • このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

    • このインスタンスファミリーは、それぞれ 32 GB の GPU メモリを搭載し、NVLink をサポートする NVIDIA V100 GPU を使用します。

    • このインスタンスファミリーで使用される NVIDIA V100 GPU(SXM2 ベース)には、次の機能があります。

      • 革新的な NVIDIA Volta アーキテクチャ

      • GPU あたり 32 GB の HBM2 メモリ(900 GB/s の帯域幅)

      • GPU あたり 5,120 CUDA コア

      • GPU あたり 640 Tensor コア

      • GPU あたり最大 6 つの NVLink 接続。各接続は双方向で 25 GB/s の帯域幅を提供し、合計帯域幅は 300 GB/s(6 × 25 × 2 = 300)です。

  • 対応シナリオ:

    • 画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングおよび推論アプリケーションなどの深層学習アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション

  • コンピューティング:

    • CPU とメモリの比率は 1:8 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

ebmgn6e インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.ebmgn6e.24xlarge

96

768

NVIDIA V100 * 8

32GB * 8

32

4,800,000

16

15

10

1

ebmgn6v、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー

  • 概要:

    • このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

    • このインスタンスファミリーは、NVIDIA V100 GPU を使用します。

    • このインスタンスファミリーは、次の機能を備えた NVIDIA V100 GPU(SXM2 ベース)を使用します。

      • 革新的な NVIDIA Volta アーキテクチャ

      • GPU あたり 16 GB の HBM2 メモリ(900 GB/s の帯域幅)

      • GPU あたり 5,120 CUDA コア

      • GPU あたり 640 Tensor コア

      • GPU あたり最大 6 つの NVLink 接続。各接続は双方向で 25 GB/s の帯域幅を提供し、合計帯域幅は 300 GB/s(6 × 25 × 2 = 300)です。

  • 対応シナリオ:

    • 画像分類、自動運転車、音声認識で使用される AI アルゴリズムのトレーニングおよび推論アプリケーションなどの深層学習アプリケーション

    • 計算流体力学、計算金融、分子動力学、環境分析などの科学計算アプリケーション

  • コンピューティング:

    • CPU とメモリの比率は 1:4 です。

    • 2.5 GHz Intel® Xeon® Platinum 8163(Skylake)プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

ebmgn6v インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.ebmgn6v.24xlarge

96

384

NVIDIA V100 * 8

16GB * 8

30

4,500,000

8

32

10

1

ebmgn6i、GPU アクセラレーテッドコンピューティング最適化 ECS ベアメタルインスタンスファミリー

  • はじめに:

    • このインスタンスファミリーは、SHENLONG アーキテクチャを使用して、柔軟で強力なソフトウェア定義コンピューティングを提供します。

    • このインスタンスファミリーは、次の機能を備えた NVIDIA T4 GPU を使用します。

      • 革新的な NVIDIA Turing アーキテクチャ

      • GPU あたり 16 GB のメモリ(320 GB/s の帯域幅)

      • GPU あたり 2,560 CUDA コア

      • GPU あたり最大 320 Turing Tensor コア

      • 65 FP16 TFLOPS、130 INT8 TOPS、および 260 INT4 TOPS をサポートする混合精度 Tensor コア

  • 対応シナリオ:

    • コンピュータビジョン、音声認識、音声合成、自然言語処理(NLP)、機械翻訳、および参照システム向けの AI (ディープラーニングおよび機械学習)推論

    • クラウドゲームのリアルタイムレンダリング

    • 拡張現実(AR)および仮想現実(VR)アプリケーションのリアルタイムレンダリング

    • グラフィックワークステーションまたはグラフィックを多用するコンピューティング

    • GPU アクセラレーテッドデータベース

    • ハイパフォーマンスコンピューティング

  • コンピューティング:

    • 1:4 の CPU とメモリの比率を提供します。

    • 2.5 GHz Intel® Xeon® Platinum 8163 (Skylake) プロセッサを使用します。

  • ストレージ:

  • ネットワーク:

    • IPv4 と IPv6 をサポートしています。IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

ebmgn6i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.ebmgn6i.24xlarge

96

384

NVIDIA T4 × 4

16GB × 4

30

4,500,000

8

32

10

1

gn5i、GPU コンピューティング最適化インスタンスファミリー

  • 対応シナリオ: ディープ ラーニングの推論、マルチメディアのエンコードとデコードなど、サーバー側の GPU コンピューティング ワークロード。

  • コンピューティング:

    • NVIDIA P4 GPU を使用します。

    • CPU とメモリの比率は 1:4 です。

    • 2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。

  • ストレージ:

    • すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。

    • 標準 SSD と Ultra ディスクをサポートします。

  • ネットワーク:

    • IPv4 と IPv6 をサポートします。 IPv6 通信の詳細については、「IPv6 通信」をご参照ください。

    • 大規模なコンピューティング容量に基づいて、高いネットワーク パフォーマンスを提供します。

gn5i インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

GPU

GPU メモリ

ネットワーク ベースライン帯域幅 (Gbit/s)

パケット転送レート (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ENI あたりの IPv6 アドレス

ecs.gn5i-c2g1.large

2

8

NVIDIA P4 * 1

8GB * 1

1

100,000

2

2

6

1

ecs.gn5i-c4g1.xlarge

4

16

NVIDIA P4 * 1

8GB * 1

1.5

200,000

2

3

10

1

ecs.gn5i-c8g1.2xlarge

8

32

NVIDIA P4 * 1

8GB * 1

2

400,000

4

4

10

1

ecs.gn5i-c16g1.4xlarge

16

64

NVIDIA P4 * 1

8GB * 1

3

800,000

4

8

20

1

ecs.gn5i-c16g1.8xlarge

32

128

NVIDIA P4 * 2

8GB * 2

6

1,200,000

8

8

20

1

ecs.gn5i-c28g1.14xlarge

56

224

NVIDIA P4 * 2

8GB * 2

10

2,000,000

14

8

20

1

gn5、GPU コンピューティング最適化インスタンスファミリー

  • 対応シナリオ:

    • 深層学習

    • 計算流体力学、計算金融、ゲノミクス、環境分析などの科学計算アプリケーション

    • ハイパフォーマンスコンピューティング、レンダリング、マルチメディアのエンコードとデコードなどのサーバー側 GPU コンピューティングワークロード

  • コンピューティング:

    • NVIDIA P100 GPU を使用します。

    • 複数の CPU とメモリの比率を提供します。

    • 2.5 GHz Intel® Xeon® E5-2682 v4 (Broadwell) プロセッサを使用します。

  • ストレージ:

    • ハイパフォーマンスなローカル NVMe SSD をサポートします。

    • すべてのインスタンスが I/O 最適化されているインスタンスファミリーです。

    • 標準 SSD と Ultra ディスクをサポートします。

  • ネットワーク:

    • IPv4 のみをサポートします。

    • 大規模なコンピューティング容量に基づいて、高いネットワークパフォーマンスを提供します。

gn5 インスタンスタイプ

インスタンスタイプ

vCPU

メモリ (GiB)

ローカルストレージ (GiB)

GPU

GPU メモリ

ネットワークベースライン帯域幅 (Gbit/s)

パケット転送速度 (pps)

NIC キュー

ENI

ENI あたりのプライベート IPv4 アドレス

ecs.gn5-c4g1.xlarge

4

30

440

NVIDIA P100 * 1

16GB * 1

3

300,000

1

3

10

ecs.gn5-c8g1.2xlarge

8

60

440

NVIDIA P100 * 1

16GB * 1

3

400,000

1

4

10

ecs.gn5-c4g1.2xlarge

8

60

880

NVIDIA P100 * 2

16GB * 2

5

1,000,000

4

4

10

ecs.gn5-c8g1.4xlarge

16

120

880

NVIDIA P100 * 2

16GB * 2

5

1,000,000

4

8

20

ecs.gn5-c28g1.7xlarge

28

112

440

NVIDIA P100 * 1

16GB * 1

5

2,250,000

7

8

10

ecs.gn5-c8g1.8xlarge

32

240

1,760

NVIDIA P100 * 4

16GB * 4

10

2,000,000

8

8

20

ecs.gn5-c28g1.14xlarge

56

224

880

NVIDIA P100 * 2

16GB * 2

10

4,500,000

14

8

20

ecs.gn5-c8g1.14xlarge

54

480

3,520

NVIDIA P100 * 8

16GB * 8

25

4,000,000

14

8

10