全部产品
Search
文档中心

人工智能平台 PAI:功能特性

更新时间:Apr 28, 2024

人工智能平台 PAI

功能集

功能

功能描述

参考文档

AI计算资源管理

灵骏智算资源

灵骏智算资源是阿里云PAI提供的大规模高密度计算资源服务,为您提供高性能AI训练、高性能计算所需的异构计算算力服务,可用于PAI的训练任务。

灵骏智算资源概述

通用训练资源

通用训练资源是基于阿里巴巴容器服务ACK(Alibaba Cloud Container Service for Kubernetes)的深度学习训练资源,为您提供灵活、稳定、易用和高性能的深度学习训练环境。

通用训练资源概述

其他大数据计算资源

展示当前用户拥有的MaxCompute、Flink等大数据计算资源。

AI计算资源组概述

AI工作空间

工作空间计算资源管理

工作空间管理员可将当前账号拥有的AI计算资源关联至当前工作空间,供工作空间成员做开发训练使用。

管理工作空间计算资源

工作空间消息通知

PAI工作空间为您提供了消息通知机制,您可以创建消息通知规则,实现对DLC任务或PAIFlow(PAI-Designer)任务状态的跟踪和监控,或是基于AI资产管理-模型版本准入状态变化触发下游事件。

创建消息通知规则

工作空间存储及SLS转发设置

工作空间管理员可以配置当前工作空间下开发训练的默认存储路径,或临时表的存储生命周期。

设置工作空间存储路径

成员及权限管理

基于角色的访问控制,提供标注管理员、算法开发、算法运维等AI全链路多角色支持用户高效协同。工作空间内AI资产支持private/public属性,且面向不同角色提供不同访问权限。

管理成员

快速开始QuickStart

预置模型库ModelHub

PAI快速开始预置了多种来源于ModelScope、Huggingface等知名模型社区的预训练模型。

模型部署及训练

预置模型训练

您可以基于预训练模型快速上手并使用PAI的训练功能。

模型部署及训练

预置模型部署

您可以基于预训练模型快速上手并使用PAI的部署功能。

模型部署及训练

可视化建模Designer

工作流构建

Designer通过工作流的方式来实现建模与模型调试,用户可根据建模需求在工作流中通过拖拉拽的方式排布不同组件,像搭积木一样构建AI开发流程。

工作流概述

工作流导入/导出

支持将构建好的工作流导出为JSON文件。用户也可以将自己或他人导出的JSON格式的工作流文件导入到工作空间内,来创建新的工作流。

导出与导入工作流

周期性调度工作流

工作流可以离线部署在DataWorks,通过周期调用的方式使用。

使用DataWorks离线调度Designer工作流

预置工作流模板

内置丰富案例供用户直接使用,包含商品推荐、新闻分类、金融风控、雾霾天气预测、心脏病预测、农业贷款发放、人口普查等,所有案例包含完整的数据集以及使用文档。可以供用户直接一键式使用。

PAI-Designer通用方案

自定义工作流模板

对于企业客户,算法专家可以开发算法流程,将稳定的工作流制作成模板分享给业务专家使用。业务专家直接基于自定义模板快速进行建模、部署、上线验证。

创建工作流:自定义模板

可视化大屏

Designer提供可视化大屏,帮助用户做数据的可视化分析、模型的可视化分析、以及模型结果的可视化报告。

使用可视化大屏查看分析报告

预置算法组件库

支持数据源、数据预处理、特征工程、统计分析、机器学习、时间序列、推荐算法、异常检测、自然语言处理、网络分析、金融板块、视觉算法、语音算法、自定义算法等上百种PAI内置算法组件,开箱即用。

组件参考:所有组件汇总

支持自定义算法

支持用户通过自定义SQL、Python、PyAlink脚本等方式实现节点。

自定义算法组件

交互式建模DSW

云原生开发环境

为用户提供灵活、稳定、易用和高性能的AI开发环境,支持基于CPU/GPU的多种模型开发训练实例规格。

什么是DSW

DSW Gallery

DSW Gallery可以为广大AI开发者提供来自各个行业和技术方向的简单易用、一键启动的案例,助力用户有效提升开发效率。

功能试用:DSW Gallery

JupyterLab

DSW集成了开源JupyterLab,并以插件化的形式进行深度定制化开发。无需任何运维配置,即可进行Notebook编写、调试及运行Python代码。

-

WebIDE

提供WebIDE建模环境,可以自由安装社区开源插件。

-

Terminal

提供字符终端,方便模型调试。

-

实例环境持久化

支持用户进行开发环境生命周期管理、实例环境保存、数据挂载共享、环境镜像持久化等功能。

读写数据集数据

资源水位监控

实时资源水位可视化查看。

-

制作镜像

支持用户将开发环境制作成ACR镜像,用于后续的分布式训练或者推理。

管理实例

SSH远程连接

为了满足更灵活的SSH使用需求,DSW提供了两种SSH连接方案:直连方式和ProxyClient方式。您可以综合考虑两种连接方式的资源依赖、使用方式和使用限制等因素,选择适合您需求的连接方式。

通过SSH远程连接DSW

分布式训练DLC

云原生分布式训练环境

基于阿里巴巴容器服务为用户提供灵活、稳定、易用和极致性能的深度学习训练环境,基于(CPU/GPU)提供深度学习训练平台。

分布式训练(DLC)

数据集挂载

支持多数据集,可以同时挂载多个NAS、OSS数据集。

准备工作

公共/专有资源组

支持公共资源组与专有资源组。

准备工作

支持预置镜像/自定义镜像提交任务

内置提供开源框架及PAI自研框架。

准备工作

分布式训练

支持数据并行、模型并行及混合并行的分布式方案。

创建训练任务

训练任务管理

任务生命周期管理,任务全流程把控。

管理训练任务

模型在线服务EAS

资源组管理

EAS将集群资源分为不同的资源组进行隔离。新建模型服务时,您可以选择将模型服务部署在公共资源组或自己创建的专属资源组。

EAS资源组概述

服务/应用部署

EAS支持将从开源社区下载的模型或您自己训练获得的模型部署为推理服务或AI-Web应用。针对不同方式获取的训练模型,PAI-EAS支持不同的部署方式,您可以使用PAI-EAS的控制台方式快速将其部署为API服务。

服务部署:控制台

服务调试与压测

服务部署完成后,您可以使用在线调试/压测功能来测试服务是否运行正常。

服务调试与压测

服务弹性伸缩

支持用户配置水平自动扩缩容、定时自动扩缩容、弹性资源池等能力。

服务弹性伸缩

服务调用

EAS根据客户端所在的网络环境不同,提供公网访问、VPC访问、VPC高速直连访问三种不同的服务调用方法。

服务调用

异步推理

EAS提供异步推理服务,支持通过订阅或轮询的方式来获取推理结果。

异步推理服务

资源组及服务管理能力被集成

提供标准OpenAPI/SDK,支持被集成。

-

AI资产管理

数据集

提供PAI标注及模型构建等流程中数据集的管理,支持OSS、NAS的数据源,提供PAI公共数据集,支持SDK调用。

创建及管理数据集

模型

PAI支持统一管理用户模型的版本、血缘、评估指标、关联服务等丰富信息。

注册及管理模型

任务

提供分布式训练任务、PAIFlow工作流任务的管理。

任务管理

镜像

提供PAI官方镜像合集以及用户自定义镜像管理能力。

查看并添加镜像

代码配置

支持用户将代码repo注册至PAI平台进行管理,方便在各产品模块中进行代码版本管理。

代码配置

自定义组件

PAI提供自定义算法组件功能,便于您根据使用场景创建自定义组件。您可以在Designer中将自定义组件和PAI官方组件串联使用,实现更灵活的工作流编排。

-

自动机器学习AutoML

自动超参调优HPO

HPO(Hyper Parameter Optimization)是AutoML提供的对模型参数、训练参数等进行自动搜索调优的服务。

AutoML工作原理

场景化解决方案

多媒体分析

提供图像领域内开箱即用的算法服务能力,包括图像打标、图像分类、图像质量分评定等。

多媒体分析概述

AI加速

数据集加速器datasetacc

数据集加速器(DatasetAcc)依托于阿里云构建的Paas服务,主要解决云上AI加速-数据集加速的场景。在机器学习训练场景下,通过对客户训练的数据集进行预分析和处理,为各种云原生的训练引擎提供统一的数据集访问加速方案,提升整体训练效率。

-

大规模分布式训练框架EPL

EPL是高效易用的分布式模型训练框架,深度集成多种训练优化技术,提供了简单易用的API实现各种并行化策略。您可以使用EPL实现低成本、高性能分布式模型训练。

AI加速:使用EPL实现AI训练加速

Transformer训练加速Rapidformer

PAI-Rapidformer结合了多种优化技术,对PyTorch版Transformer模型的训练进行优化,从而达到最优的训练性能。

训练加速(Rapidformer)概述

模型优化Blade

Blade有机融合多种优化技术,对模型进行分析,智能优化达到最优的推理性能。

推理加速(Blade)概述

PAI-SDK

分布式模型训练

PAI Python SDK提供了更易用的API(即HighLevel API),支持用户提交训练作业到PAI,使用云上资源运行。

提交训练作业

模型服务部署

PAI Python SDK提供了易用的API(即HighLevel API),支持用户将模型部署到PAI创建推理服务。

部署推理服务