inference-nv-pytorch 25.02 は、vLLM を v0.7.2 に更新し、SGLang v0.4.3.post2 をサポートし、DeepSeek モデル推論を有効にします。
新機能
-
vLLM は v0.7.2 に更新されました
-
SGLang v0.4.3.post2 をサポート
-
DeepSeek モデルをサポート — コンテナ内で DeepSeek モデル推論を直接実行します。
バグ修正
なし。
システムコンポーネント
要件
| コンポーネント | バージョン |
|---|---|
| NVIDIA Driver | >= 550 |
| Ubuntu | 22.04 |
プリインストール済みパッケージ
| パッケージ | バージョン |
|---|---|
| Python | 3.10 |
| PyTorch | 2.5.1 |
| CUDA | 12.4 |
| transformers | 4.48.3 |
| triton | 3.1.0 |
| ray | 2.42.1 |
| vLLM | 0.7.2 |
| sgl-kernel | 0.0.3.post6 |
| SGLang | 0.4.3.post2 |
| flashinfer-python | 0.2.1.post2 |
| ACCL-N | 2.23.4.11 |
コンテナイメージ
パブリックイメージ
egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:25.02-vllm0.7.2-sglang0.4.3.post2-pytorch2.5-cuda12.4-20250305-serverless
VPC イメージ
acs-registry-vpc.{region-id}.cr.aliyuncs.com/egslingjun/{image:tag}
{region-id} を、ACS が有効化されているリージョン(例: cn-beijing)で置き換え、{image:tag} をイメージ名とタグで置き換えます。
VPC イメージのプルは現在、中国 (北京) リージョンでのみ利用可能です。
イメージの互換性
2つのイメージバリアントが利用可能です。デプロイメントターゲットに基づいて選択してください。
| イメージタグ | 互換性 |
|---|---|
...20250305-serverless |
ACS プロダクトおよび Lingjun マルチテナントプロダクト |
...20250305 (-serverless サフィックスなし) |
Lingjun シングルテナントプロダクト |
「-serverless」イメージは、Lingjun シングルテナント プロダクトと互換性がありません。シングルテナント デプロイメントには、「-serverless」サフィックスのないイメージを使用してください。
クイックスタート
次のステップでは、Docker を使用して inference-nv-pytorch イメージをプルし、Qwen2.5-7B-Instruct モデルで推論テストを実行します。
このイメージを ACS でデプロイするには、ACS コンソールのアーティファクトセンター ページからイメージを選択するか、YAML ファイルで指定します。docker pull を直接使用しないでください。ACS のデプロイ ガイドについては、「次にやること」をご参照ください。
前提条件
-
Docker がインストールされ、実行中
-
NVIDIA Driver リリース >= 550
推論テストの実行
-
コンテナイメージをプルします。
docker pull egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag][tag]をターゲットデプロイメントのイメージタグに置換します (「イメージの互換性」をご参照ください)。 -
ModelScope から Qwen2.5-7B-Instruct モデルをダウンロードします。
pip install modelscope cd /mnt modelscope download --model Qwen/Qwen2.5-7B-Instruct --local_dir ./Qwen2.5-7B-Instruct -
コンテナを開始します。
docker run -d -t --network=host --privileged --init --ipc=host \ --ulimit memlock=-1 --ulimit stack=67108864 \ -v /mnt/:/mnt/ \ egslingjun-registry.cn-wulanchabu.cr.aliyuncs.com/egslingjun/inference-nv-pytorch:[tag] -
コンテナ内で vLLM サーバーを開始します。
python3 -m vllm.entrypoints.openai.api_server \ --model /mnt/Qwen2.5-7B-Instruct \ --trust-remote-code --disable-custom-all-reduce \ --tensor-parallel-size 1 -
サーバーにテストリクエストを送信します。
curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "/mnt/Qwen2.5-7B-Instruct", "messages": [ {"role": "system", "content": "You are a friendly AI assistant."}, {"role": "user", "content": "Please introduce deep learning."} ] }'vLLM の詳細については、vLLM ドキュメントをご参照ください。
既知の問題
-
H20 上の MoE における不正なメモリアクセス (#13693): この問題を解決するために vLLM を更新します。
次のステップ
ACS に inference-nv-pytorch をデプロイするには、以下をご参照ください。