GPU云服务器提供GPU加速计算能力,实现GPU计算资源的即开即用和弹性伸缩。作为阿里云弹性计算家族的一员,GPU云服务器结合了GPU计算力与CPU计算力,满足您在人工智能、高性能计算、专业图形图像处理等场景中的需求。
为什么选择GPU云服务器
阿里云GPU云服务器是基于GPU与CPU应用的计算服务器。GPU在执行复杂的数学和几何计算方面有着独特的优势,特别是在浮点运算、并行运算等方面,GPU可以提供上百倍于CPU的计算能力。GPU的功能特性如下:
- 拥有大量擅长处理大规模并发计算的算术逻辑单元(Arithmetic and Logic Unit,即ALU)。
- 能够支持多线程并行的高吞吐量运算。
- 逻辑控制单元相对简单。
下表为您介绍GPU云服务器与自建GPU服务器的区别。
对比项 | GPU云服务器 | GPU自建服务器 |
---|---|---|
灵活性 |
|
|
易用性 |
|
|
容灾备份 |
|
|
安全性 |
|
|
成本 |
|
|
EGS平台介绍
GPU作为一种计算芯片,其优势非常明显,具有实时高速、强并行计算能力和强浮点计算能力等特点。阿里云弹性GPU服务EGS(Elastic GPU Service)将阿里云的弹性计算和GPU高速的并行异构加速器组合在一起,兼具了弹性计算的特点和GPU的加速能力。
阿里云基于EGS平台推出了GPU云服务器,在提供GPU加速能力的同时,保留了与普通ECS实例一致的使用体验。您在创建ECS实例时,选择企业级异构计算规格即可。实例规格的详细信息,请参见实例规格族。
产品优势
- 高弹性
提供系列化的规格族,分钟级创建GPU实例,支持水平扩容和垂直变配。
- 高性能高安全性
支持GPUDirect,GPU之间点对点通信。GPU可以直接通过NVLink总线互联通信,具备高带宽低时延的特点,无需CPU干预。多租户间弹性GPU安全隔离 ,并通过Hypervisor授权和管理。允许灵活配置多块GPU实现互相高速通信的同时,还具备隔离带来的安全性。
- 易部署
和阿里云生态深度融合,您可以轻松搭配其他阿里云产品构建应用,例如搭配OSS、NAS等产品满足存储要求,搭配EMR进行深度学习数据预处理等。支持云原生(阿里云Kubernetes),交付更加便捷。
- 易监控
提供全面的GPU监控数据,包括GPU、实例和分组维度,免去您的运维压力。更多信息,请参见GPU监控。
产品计费
GPU云服务器的计费相关功能和云服务器ECS一致,其中,计算资源(vCPU和内存)、镜像、块存储、公网带宽以及快照等资源涉及计费。
- 包年包月:按一定时长购买资源,先付费后使用。
- 按量付费:按需开通和释放资源,先使用后付费。
- 抢占式实例:通过竞价模式抢占库存充足的计算资源,相对按量付费实例有一定的折扣,但是存在回收机制。
- 预留实例券:搭配按量付费实例使用的抵扣券,承诺使用指定配置的实例(包括实例规格、地域可用区等),以折扣价抵扣计算资源的账单。
- 节省计划:搭配按量付费实例使用的折扣权益计划,承诺使用稳定数量的资源(以元/小时为单位衡量),以折扣价抵扣计算资源、系统盘等资源的账单。
- 存储容量单位包:搭配按量付费存储产品使用的资源包,承诺使用指定容量的存储资源,以折扣价抵扣块存储、NAS、OSS等资源的账单。
更多云服务器ECS计费的介绍,请参见计费概述和云服务器ECS产品详情页的定价页面。
相关工具
- 神龙AI加速训练引擎:阿里云自研的AI加速器,可以显著提升训练性能。更多信息,请参见神龙AI训练加速引擎AIACC-Training(AIACC训练加速)。
- 神龙AI加速推理引擎:阿里云自研的AI加速器,可以显著提升推理性能。更多信息,请参见神龙AI推理加速引擎AIACC-Inference(AIACC推理加速)。
- GPU容器共享技术cGPU:隔离GPU资源,实现多个容器共用一张显卡。更多信息,请参见什么是GPU容器共享技术cGPU。
- 集群极速部署工具FastGPU:阿里云推出的人工智能计算任务构建工具,提供便捷的接口和命令行,供您在阿里云IaaS资源上构建人工智能计算任务。更多信息,请参见什么是集群极速部署工具FastGPU。