すべてのプロダクト
Search
ドキュメントセンター

:イメージの使用に関する注意事項

最終更新日:Jun 10, 2025

AI アプリケーションシナリオでのイメージ使用に関するユーザー要件を満たすために、Function Compute は配信にイメージを使用することを推奨しています。 AI およびビッグデータ分野の画像は、通常ギガバイト単位です。 Function Compute はイメージサイズの制限を拡大し、イメージアクセラレーションを提供しています。 このトピックでは、イメージサイズの制限、イメージアクセラレーションの方法、およびパブリックベースイメージの使用方法について説明します。

圧縮イメージのサイズ制限

次の表は、圧縮イメージのサイズ制限を示しています。 制限は、Container Registry インスタンスタイプとエディションによって異なります。 Container Registry エディションの課金については、「課金」をご参照ください。

Container Registry エディション

イメージサイズ制限 (GB)

課金が必要

Container Registry Enterprise Edition (Standard Edition)

10

はい

Container Registry Enterprise Edition (Pro)

10

はい

Container Registry Enterprise Edition (Basic Edition)

10

はい

Container Registry Personal Edition

3

無料

説明

Container Registry Personal Edition のイメージサイズ制限は、次のリージョンでは 10 GB に増加しています。

中国 (杭州)、中国 (上海)、中国 (北京)、中国 (張家口)、中国 (深圳)、中国 (香港)、日本 (東京)、シンガポール、ドイツ (フランクフルト)、米国 (シリコンバレー)、および米国 (バージニア)。

ドライバー非依存コンテナイメージの使用

ドライバー関連のコンポーネントをイメージに追加しないでください。 また、アプリケーションが特定のドライババージョンに依存していないことを確認してください。 たとえば、CUDA Driver API を提供する libcuda.so をイメージに含めないでください。 この動的ライブラリは、デバイスのカーネルドライバーバージョンと強く関連付けられています。 動的ライブラリがドライバーバージョンと一致しない場合、例外が発生する可能性があります。

関数インスタンスが作成されると、Function Compute はドライバー関連のユーザーモードコンポーネントをコンテナに挿入します。 これらのコンポーネントは、プラットフォームによって提供されるドライバーバージョンと一致します。 NVIDIA Container Runtime などの GPU コンテナ仮想化テクノロジーでは、特定のドライバタスクがプラットフォームリソースプロバイダーによって実行され、GPU コンテナイメージの環境への適応性が向上します。 Function Compute GPU インスタンスで使用されるドライバーは、NVIDIA によって提供されています。 インスタンスで使用されるドライバーバージョンは、機能の反復、新しいカードのリリース、バグ修正、およびドライバーライフサイクルの有効期限のために変更される場合があります。

NVIDIA Container Runtime などの GPU コンテナ仮想化テクノロジーをすでに使用している場合は、docker commit コマンドを使用してイメージを作成しないでください。 これらのイメージには、挿入されたドライバー関連のコンポーネントが含まれています。 Function Compute プラットフォームでこれらのイメージを使用すると、コンポーネントのバージョンがプラットフォームのバージョンと一致しないため、アプリケーションの例外などの未定義の動作が発生する可能性があります。

Function Compute の Alibaba Cloud ベースイメージ

互換性とパフォーマンスを向上させるために、Function Compute GPU は公式ベースイメージを提供および推奨しており、ビジネスロジックの構築を容易にします。

Function Compute Serverless GPU は、PyTorch、TensorFlow、PaddlePaddle など、主要な機械学習フレームワークと一般的なモデルプラットフォームイメージを含む、複数の公式ベースイメージを提供します。 ベースイメージを使用すると、GPU シナリオで簡単にハイパフォーマンスコンピューティングを開始できます。 これらのベースイメージには、Function Compute でイメージを実行するために必要な環境と依存関係がプリロードされています。 環境と依存関係をインストールおよび構成することなく、これらのイメージを使用できます。 ベースイメージは、アプリケーションのパフォーマンスと信頼性を向上させるのに役立ちます。 次の表に、Function Compute GPU によって提供されるベースイメージを示します。

イメージファミリー

ベースイメージアドレス (内部ネットワークプル用に registry-vpc プレフィックスを使用できます)

イメージタグ

コンピューティングフレームワークバージョン

Python バージョン

CUDA バージョン

Ubuntu バージョン

modelscope

registry.{cn-hangzhou|us-east-1|ap-northeast-1}.aliyuncs.com/serverless_devs/modelscope

ubuntu20.04-cuda11.3.0-py37-torch1.11.0-tf1.15.5-1.5.0

該当なし

3.7

11.3.0

20.04

PyTorch

registry.{cn-hangzhou|us-east-1|ap-northeast-1}.aliyuncs.com/serverless_devs/pytorch

22.12-py3

1.14.0

3.8

11.8.0

TensorFlow

registry.{cn-hangzhou|us-east-1|ap-northeast-1}.aliyuncs.com/serverless_devs/tensorflow

22.12-tf1-py3

1.15.5

22.12-tf2-py3

2.10.1

PaddlePaddle

registry.{cn-hangzhou|us-east-1|ap-northeast-1}.aliyuncs.com/serverless_devs/paddlepaddle

22.12-py3

2.3.2

22.04

CUDA

registry.{cn-hangzhou|us-east-1|ap-northeast-1}.aliyuncs.com/serverless_devs/cuda

11.8.0-devel-ubuntu22.04

該当なし

該当なし

重要
  • ベースイメージは、GPU が利用可能なリージョンでのみ利用可能です。 これらのリージョンには、中国 (杭州)、中国 (上海)、中国 (北京)、中国 (張家口)、中国 (深セン)、日本 (東京)、米国 (バージニア) が含まれます。 各リージョンに対応するリージョン ID の詳細については、「リージョン」をご参照ください。

  • ベースイメージは、Container Registry Personal Edition のユーザーのみが利用できます。 データ分離の問題により、この機能は Container Registry Enterprise Edition のユーザーのパフォーマンスを向上させることはできません。

ベースイメージの利点

Function Compute Serverless GPU ベースイメージを使用すると、次の利点があります。

  • 互換性の向上

    Function Compute Serverless GPU ベースイメージは、GPU インスタンス向けに最適化およびテストされており、GPU インスタンスで実行されるアプリケーションの互換性と安定性が向上します。

  • パフォーマンスの向上

    Function Compute GPU インスタンスは、ベースイメージのフレームワークとデータ読み取りを最適化し、エンドツーエンドのパフォーマンスとエクスペリエンスを向上させます。さらに、ベースイメージには、NumPy や TensorFlow など、いくつかの一般的なコンピューティングライブラリが含まれており、高性能なコードを簡単に記述できます。

  • ビルドプロセスの簡素化

    NumPy や SciPy などの環境を手動で設定することなく、Function Compute Serverless GPU ベースイメージを直接使用して、独自のビジネスロジックを構築できます。

ベースイメージを使用すると、ビジネスロジックをより適切に構築し、より高いパフォーマンスとより優れた互換性を実現できます。Function Compute では、独自のビジネスロジックを構築する際に、Function Compute GPU ベースイメージを使用することをお勧めします。

ベースイメージの使用方法

ベースイメージは簡単に使用できます。ビジネスロジックをビルドする際に、Dockerfile で使用するベースイメージを追加するだけで済みます。たとえば、中国 (上海) リージョンの GPU 関数で PyTorch ベースイメージを使用するには、Dockerfile に次のコードを追加します。

FROM registry.cn-shanghai.aliyuncs.com/serverless_devs/pytorch:22.12-py3

ADD . .
EXPOSE 9000

Function Compute は、イメージをプルするためのアドレスを提供しています。たとえば、次のコマンドを実行して、PyTorch ベースイメージをプルできます。

docker pull registry.cn-shanghai.aliyuncs.com/serverless_devs/pytorch:22.12-py3

Function Compute 用の Alibaba Cloud ベースイメージ

Function Compute のベースイメージと NVIDIA が提供するイメージに違いはありますか?

イメージは同じです。 互換性の問題について心配する必要はありません。

Function Compute が提供するベースイメージのフレームワークのバージョンよりも新しいバージョンのフレームワークを使用したい場合、引き続き高パフォーマンスが保証されますか?

はい。コンテナー イメージはレイヤー化されています。そのため、以前のバージョンと新しいバージョンのフレームワーク間で特定のデータが同じであるため、引き続き高いパフォーマンスが保証されます。

必要なベースイメージが見つからない場合はどうすればよいですか?

テクニカルサポートについては、Function Compute 公式ユーザーグループ(DingTalk グループ: 64970014484)への参加をお勧めします。

ベース イメージは異なる種類の GPU と互換性がありますか?

App Service プランは、Web アプリの場所、機能、およびコンピューティング リソースを定義します。az appservice plan create コマンドを使用して App Service プランを作成します。