すべてのプロダクト
Search
ドキュメントセンター

:MaxCompute AI 計算リソースの購入と使用

最終更新日:Dec 03, 2025

MaxCompute でのデータ処理やオフラインモデル推論などのタスクで高い計算効率が必要な場合は、GPU 計算能力の需要を満たすために設計された MaxCompute AI 計算リソース (GU クォータ) を購入して使用できます。このトピックでは、これらの計算リソースの購入方法と使用方法について説明します。

注意事項

  1. これらのリソースは、中国 (北京)、中国 (杭州)、中国 (上海)、中国 (深セン)、および中国 (ウランチャブ) リージョンで購入できます。

  2. GPU AI 計算リソースは MaxFrame でのみサポートされています。

  3. GPU AI 計算リソースのクォータグループのスペックアップまたはスペックダウン、およびレベル 1 の AI 計算リソースクォータを複数のレベル 2 のクォータに分割することはできません。

購入

  1. MaxCompute コンソールにログインし、左上隅でリージョンを選択します。

  2. 左側のナビゲーションウィンドウで、構成の管理 > クォータ管理 を選択します。

  3. クォータ管理 ページで、新しいクォータ をクリックします。

    購入ページで、[製品タイプ][AI 計算リソース] に設定します。

  4. MaxCompute-AI 計算リソース (サブスクリプション) ページで、次のパラメーターを設定します。

    • [仕様]:GU クォータの仕様。例:gu.a10.c30g186

    • [計算ユニット]:GU クォータ内の GU 数を示します。

      計算ユニットの調整可能なステップサイズは、クォータの仕様によって異なります。ステップサイズは 1、2、4、または 8 GU です。購入ページで指定された制限が適用されます。
  5. [今すぐ購入] をクリックし、画面の指示に従って利用規約に同意し、購入を完了します。(GU リソースは約 10 分でプロビジョニングされます)。

  6. 購入が完了したら、コンソールに戻ります。クォータ管理ページに GPU AI 計算リソースタイプのクォータグループが表示されます。

使用ガイド

MaxCompute は、AI および機械学習のワークロードを効率的に実行するための専用の AI 計算リソース (GU クォータ) を提供します。レベル 2 のクォータメカニズムを使用して、これらのリソースをオンデマンドでジョブに割り当てることができます。以下のセクションでは、AI 計算リソースを使用するための主要なステップについて説明します。

クォータステータスの確認

MaxCompute の汎用計算リソース (CU クォータ) と同様に、ジョブレベルで AI 計算リソース (GU クォータ) を指定できます。新しい GPU リソースグループは、使用する前に初期化する必要があります。コンソールの クォータ管理ページでレベル 2 のクォータのステータスを確認できます。

  • 実行中:環境の準備ができており、ジョブを送信できます。

  • 作成中:リソースの構成が進行中です。リソースを使用する前に、構成が完了するまでお待ちください。

ジョブを送信する前にクォータのステータスを確認し、ジョブが確実にスケジュールされるようにしてください。

MaxFrame ジョブでの AI 計算リソースの使用

@with_running_options デコレーターを使用して、リソース要件を宣言できます。これにより、MaxFrame の AI 関数またはユーザー定義関数 (UDF) に GU リソースを明示的に指定できます。次の例でその方法を示します。

@with_running_options(gu=1, gu_quota="your_gu_quotaname")
def your_ai_function():
    """
    gu=1: 1 GU (GPU カード 1 枚) をリクエストします。
    gu_quota: 「実行中」状態のアクティブ化された GU クォータの名前を指定します。
    
    この関数は @with_running_options デコレーターを使用して、
    実行時に 'your_gu_quotaname' という名前のクォータグループからリクエストされた 1 GU (GPU ユニット) の AI 計算リソースの使用を指定します。
    """
    # 関数本体はここに記述します。「pass」はプレースホルダーとして使用されます。
    pass
 

この構成により、関数が GPU 機能を持つクラスターで実行されることが保証されます。このアプローチは、マルチモーダルデータ処理、モデル推論、およびその他の GPU アクセラレーションシナリオに適しています。