阿里雲人工智慧平台PAI是NVIDIA授權的中國NIM夥伴。
NIM是英偉達推出的一套便於使用的預構建容器工具,目的是協助企業客戶在雲、資料中心和工作站上安全、可靠的部署高效能的Al模型推理。NIM模型是通過NIM最佳化工具加工的效能最佳化後模型,相比原始開源模型有顯著的推理效能提升。
在PAI-Model Gallery中提供了多個NIM模型(可通過在模型廣場的左側篩選欄選擇“模型來源”為“NIM”來擷取),支援2種使用方式:
支援的NIM模型列表
當前在人工智慧平台PAI-Model Gallery中可直接部署的NIM模型如下:
模型名稱 | Model Gallery模型頁面 | NIM推理最佳化支援的機型 |
qwen2.5-7b-instruct-NIM | ecs.gn7e系列 ecs.gn8is系列 | |
MolMIM | 通用GPU機型 | |
Earth-2 FourCastNet | 通用GPU機型 | |
NVIDIA Retrieval QA Mistral 7B Embedding v2 | ecs.gn7e系列 | |
Eye Contact | 通用GPU機型 | |
NV-CLIP | ecs.gn7e系列 ecs.gn7i系列 | |
AlphaFold2-Multimer | 通用GPU機型 | |
Snowflake Arctic Embed Large Embedding | ecs.gn7e系列 ecs.gn7i系列 | |
NVIDIA Retrieval QA Mistral 4B Reranking v3 | ecs.gn7e系列 ecs.gn7i系列 | |
NVIDIA Retrieval QA E5 Embedding v5 | ecs.gn7e系列 ecs.gn7i系列 | |
Parakeet CTC Riva 1.1b | 通用GPU機型 | |
FastPitch HifiGAN Riva | 通用GPU機型 | |
VISTA-3D | 通用GPU機型 | |
AlphaFold2 | 通用GPU機型 | |
ProteinMPNN | 通用GPU機型 | |
megatron-1b-nmt | 通用GPU機型 |
在PAI-Model Gallery中一鍵部署使用
在模型廣場的左側篩選欄選擇“模型來源”為“NIM”,找到NIM模型

選擇NIM模型進入模型詳情頁,點擊右上方部署按鈕即可進入部署頁面。請注意,在PAI中部署NIM模型需要您已經是 NVIDIA AI Enterprise 使用者或 NVIDIA Developer Program 使用者。

配置運行資源等資訊後,點擊部署按鈕即可拉起NIM模型線上服務。調用方式請參考模型介紹。

本地部署使用
NIM模型允許使用者下載鏡像和模型,在本地部署使用。(需要您已經是 NVIDIA AI Enterprise 使用者或 NVIDIA Developer Program 使用者)
配置環境。詳情請參見Getting Started。
在NIM模型的模型詳情頁點擊「下載地址」,確認NIM下載條款許可聲明,擷取鏡像和模型地址。
通過以下命令拉取鏡像(請替換 ${鏡像地址} 為實際的鏡像地址)
docker pull ${鏡像地址}使用阿里雲ossutil工具下載模型檔案。
使用命令啟動容器(以模型檔案儲存在您本地的/local/model/目錄下為例;請替換 ${模型掛載路徑} 和 ${鏡像地址} 為實際的模型掛載路徑和鏡像地址)
docker run --rm \ --runtime=nvidia \ --gpus all \ -u $(id -u) \ -v /local/model/:${模型掛載路徑} ${鏡像地址}
附錄:首次使用PAI平台開通流程
對於未註冊/未登入阿里雲的使用者,首次使用PAI-Model Gallery可參考以下流程:

