すべてのプロダクト
Search
ドキュメントセンター

Container Compute Service:inference-nv-pytorch 25.06

最終更新日:Jun 21, 2025

このトピックでは、inference-nv-pytorch 25.06 のリリースノートについて説明します。

主な機能と修正されたバグ

主な機能

  • vLLM が v0.9.0.1 に更新されました。

  • SGLang が v0.4.7 に更新されました。

  • deepgpu-comfyui プラグインが導入されました。これは、Wan2.1 および FLUX モデル推論のために L20 上の ComfyUI サービスを高速化するために使用できます。 PyTorch と比較して、全体的なパフォーマンスが 8% から 40% 向上しました。

修正されたバグ

なし。

コンテンツ

inference-nv-pytorch

inference-nv-pytorch

イメージ タグ

25.06-vllm0.9.0.1-pytorch2.7-cu128-20250609-serverless

25.06-sglang0.4.7-pytorch2.7-cu128-20250611-serverless

シナリオ

LLM 推論

LLM 推論

フレームワーク

PyTorch

pytorch

要件

NVIDIA ドライバー リリース >= 570

NVIDIA ドライバー リリース >= 550

システム コンポーネント

  • Ubuntu 24.04

  • Python 3.12

  • Torch 2.7.1+cu128

  • CUDA 12.8

  • NCCL 2.27.3

  • accelerate 1.7.0

  • diffusers 0.33.1

  • deepgpu-comfyui 1.1.5

  • deepgpu-torch 0.0.21+torch2.7.0cu128

  • flash_attn 2.7.4.post1

  • imageio 2.37.0

  • imageio-ffmpeg 0.6.0

  • ray 2.46.0

  • transformers 4.52.4

  • vllm 0.9.0.2.dev0+g5fbbfe9a4.d20250609

  • xgrammar 0.1.19

  • triton 3.3.1

  • Ubuntu 22.04

  • Python 3.10

  • Torch 2.7.1+cu128

  • CUDA 12.8

  • NCCL 2.27.3

  • accelerate 1.7.0

  • diffusers 0.33.1

  • deepgpu-comfyui 1.1.5

  • deepgpu-torch 0.0.21+torch2.7.0cu128

  • flash_attn 2.7.4.post1

  • flash_mla 1.0.0+9edee0c

  • flashinfer-python 0.2.6.post1

  • imageio 2.37.0

  • imageio-ffmpeg 0.6.0

  • ray 2.46.0

  • transformers 4.52.3

  • sgl-kernel 0.1.7

  • sglang 0.4.7

  • xgrammar 0.1.19

  • triton 3.3.1

  • torchao 0.9.0

アセット

パブリックにアクセス可能なイメージ

  • egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.06-vllm0.9.0.1-pytorch2.7-cu128-20250609-serverless

  • egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.06-sglang0.4.7-pytorch2.7-cu128-20250611-serverless

VPC イメージ

  • acs-registry-vpc.{region-id}.cr.aliyuncs.com/egslingjun/{image:tag}

    {region-id} は、ACS がアクティブ化されているリージョン (cn-beijing、cn-wulanchabu など) を示します。
    {image:tag} は、イメージの名前とタグを示します。
重要

現在、VPC 経由でプルできるのは、中国 (北京) リージョンのイメージのみです。

説明

25.06-vllm0.9.0.1-pytorch2.7-cu128-20250609-serverless イメージと 25.06-sglang0.4.7-pytorch2.7-cu128-20250611-serverless イメージは、ACS サービスと FLUX マルチテナント サービスに適用できますが、FLUX シングルテナント サービスには適用できません。

ドライバー要件

CUDA 12.8 イメージの場合: NVIDIA ドライバー 570 以降。

クイックスタート

次の例では、Docker のみを使用して inference-nv-pytorch イメージをプルし、Qwen2.5-7B-Instruct モデルを使用して推論サービスをテストします。

説明

ACS で inference-nv-pytorch イメージを使用するには、ワークロードを作成するコンソールのアーティファクト センター ページからイメージを選択するか、YAML ファイルでイメージを指定する必要があります。 詳細については、以下のトピックを参照してください。

  1. 推論コンテナー イメージをプルします。

    docker pull egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag]
  2. modelscope 形式のオープンソース モデルをダウンロードします。

    pip install modelscope
    cd /mnt
    modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./Qwen2.5-7B-Instruct
  3. 次のコマンドを実行して、コンテナーにログインします。

    docker run -d -t --network=host --privileged --init --ipc=host \
    --ulimit memlock=-1 --ulimit stack=67108864  \
    -v /mnt/:/mnt/ \
    egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag]
  4. 推論テストを実行して、vLLM の推論会話機能をテストします。

    1. サーバー サービスを開始します。

      python3 -m vllm.entrypoints.openai.api_server \
      --model /mnt/Qwen2.5-7B-Instruct \
      --trust-remote-code --disable-custom-all-reduce \
      --tensor-parallel-size 1
    2. クライアントでテストします。

      curl http://localhost:8000/v1/chat/completions \
          -H "Content-Type: application/json" \
          -d '{
          "model": "/mnt/Qwen2.5-7B-Instruct",  
          "messages": [
          {"role": "system", "content": "You are a friendly AI assistant."},
          {"role": "user", "content": "Please introduce deep learning."}
          ]}'

      vLLM の使用方法の詳細については、「vLLM」をご参照ください。

既知の問題

  • deepgpu-comfyui プラグインは、Wanx モデルに基づくビデオ生成の高速化について、GN8IS のみをサポートしています。