このトピックでは、inference-nv-pytorch 25.06 のリリースノートについて説明します。
主な機能と修正されたバグ
主な機能
vLLM が v0.9.0.1 に更新されました。
SGLang が v0.4.7 に更新されました。
deepgpu-comfyui プラグインが導入されました。これは、Wan2.1 および FLUX モデル推論のために L20 上の ComfyUI サービスを高速化するために使用できます。 PyTorch と比較して、全体的なパフォーマンスが 8% から 40% 向上しました。
修正されたバグ
なし。
コンテンツ
inference-nv-pytorch | inference-nv-pytorch | |
イメージ タグ | 25.06-vllm0.9.0.1-pytorch2.7-cu128-20250609-serverless | 25.06-sglang0.4.7-pytorch2.7-cu128-20250611-serverless |
シナリオ | LLM 推論 | LLM 推論 |
フレームワーク | PyTorch | pytorch |
要件 | NVIDIA ドライバー リリース >= 570 | NVIDIA ドライバー リリース >= 550 |
システム コンポーネント |
|
|
アセット
パブリックにアクセス可能なイメージ
egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.06-vllm0.9.0.1-pytorch2.7-cu128-20250609-serverless
egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.06-sglang0.4.7-pytorch2.7-cu128-20250611-serverless
VPC イメージ
acs-registry-vpc.{region-id}.cr.aliyuncs.com/egslingjun/{image:tag}
{region-id}は、ACS がアクティブ化されているリージョン (cn-beijing、cn-wulanchabu など) を示します。{image:tag}は、イメージの名前とタグを示します。
現在、VPC 経由でプルできるのは、中国 (北京) リージョンのイメージのみです。
25.06-vllm0.9.0.1-pytorch2.7-cu128-20250609-serverless イメージと 25.06-sglang0.4.7-pytorch2.7-cu128-20250611-serverless イメージは、ACS サービスと FLUX マルチテナント サービスに適用できますが、FLUX シングルテナント サービスには適用できません。
ドライバー要件
CUDA 12.8 イメージの場合: NVIDIA ドライバー 570 以降。
クイックスタート
次の例では、Docker のみを使用して inference-nv-pytorch イメージをプルし、Qwen2.5-7B-Instruct モデルを使用して推論サービスをテストします。
ACS で inference-nv-pytorch イメージを使用するには、ワークロードを作成するコンソールのアーティファクト センター ページからイメージを選択するか、YAML ファイルでイメージを指定する必要があります。 詳細については、以下のトピックを参照してください。
推論コンテナー イメージをプルします。
docker pull egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag]modelscope 形式のオープンソース モデルをダウンロードします。
pip install modelscope cd /mnt modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./Qwen2.5-7B-Instruct次のコマンドを実行して、コンテナーにログインします。
docker run -d -t --network=host --privileged --init --ipc=host \ --ulimit memlock=-1 --ulimit stack=67108864 \ -v /mnt/:/mnt/ \ egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag]推論テストを実行して、vLLM の推論会話機能をテストします。
サーバー サービスを開始します。
python3 -m vllm.entrypoints.openai.api_server \ --model /mnt/Qwen2.5-7B-Instruct \ --trust-remote-code --disable-custom-all-reduce \ --tensor-parallel-size 1クライアントでテストします。
curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "/mnt/Qwen2.5-7B-Instruct", "messages": [ {"role": "system", "content": "You are a friendly AI assistant."}, {"role": "user", "content": "Please introduce deep learning."} ]}'vLLM の使用方法の詳細については、「vLLM」をご参照ください。
既知の問題
deepgpu-comfyui プラグインは、Wanx モデルに基づくビデオ生成の高速化について、GN8IS のみをサポートしています。