このトピックでは、inference-nv-pytorch 25.09 のリリースノートについて説明します。
主な特徴とバグ修正
主な特徴
PyTorch が 2.8.0 にアップグレードされました。
vLLM が v0.10.2 にアップグレードされました。
SGLang が v0.5.2 にアップグレードされました。
deepgpu-comfyui が 1.2.1 にアップグレードされ、deepgpu-torch 最適化コンポーネントが 0.1.1+torch2.8.0cu128 にアップグレードされました。
バグ修正
なし
内容
inference-nv-pytorch | inference-nv-pytorch | |
タグ | 25.09-vllm0.10.2-pytorch2.8-cu128-20250922-serverless | 25.09-sglang0.5.2-pytorch2.8-cu128-20250917-serverless |
シナリオ | 大規模モデル推論 | 大規模モデル推論 |
フレームワーク | pytorch | pytorch |
要件 | NVIDIA ドライバーリリース >= 570 | NVIDIA ドライバーリリース >= 570 |
システムコンポーネント |
|
|
アセット
パブリックイメージ
egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.09-vllm0.10.2-pytorch2.8-cu128-20250922-serverless
egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.09-sglang0.5.2-pytorch2.8-cu128-20250917-serverless
VPC イメージ
acs-registry-vpc.{region-id}.cr.aliyuncs.com/egslingjun/{image:tag}
{region-id}は、ACS がアクティブ化されているリージョン (cn-beijing や cn-wulanchabu など) を示します。{image:tag}は、イメージの名前とタグを示します。
現在、VPC 経由でプルできるのは、中国 (北京) リージョンのイメージのみです。
inference-nv-pytorch:25.09-vllm0.10.2-pytorch2.8-cu128-20250922-serverless および inference-nv-pytorch:25.09-sglang0.5.2-pytorch2.8-cu128-20250917-serverless イメージは、ACS プロダクトおよび Lingjun マルチテナントプロダクトに適用されます。Lingjun シングルテナントプロダクトには適用されません。
ドライバー要件
NVIDIA ドライバーリリース >= 570
クイックスタート
この例では、Docker を使用して inference-nv-pytorch イメージをプルし、Qwen2.5-7B-Instruct モデルで推論サービスをテストする方法を示します。
ACS で inference-nv-pytorch イメージを使用するには、コンソールでワークロードを作成するときに [Artifacts] ページで選択するか、YAML ファイルでイメージリファレンスを指定します。ACS GPU 計算能力を使用してモデル推論サービスを構築する方法の詳細については、次のトピックをご参照ください。
推論コンテナイメージをプルします。
docker pull egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag]ModelScope フォーマットでオープンソースモデルをダウンロードします。
pip install modelscope cd /mnt modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./Qwen2.5-7B-Instruct次のコマンドを実行してコンテナーに入ります。
docker run -d -t --network=host --privileged --init --ipc=host \ --ulimit memlock=-1 --ulimit stack=67108864 \ -v /mnt/:/mnt/ \ egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag]vLLM の対話型推論機能をテストします。
サーバーを起動します。
python3 -m vllm.entrypoints.openai.api_server \ --model /mnt/Qwen2.5-7B-Instruct \ --trust-remote-code --disable-custom-all-reduce \ --tensor-parallel-size 1クライアントでテストします。
curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "/mnt/Qwen2.5-7B-Instruct", "messages": [ {"role": "system", "content": "You are a friendly AI assistant."}, {"role": "user", "content": "Tell me about deep learning."} ]}'vLLM の使用方法の詳細については、「vLLM」をご参照ください。
既知の問題
Wanx モデルのビデオ生成を高速化する deepgpu-comfyui プラグインは、現在 GN8IS と G49E のみをサポートしています。