GPU计算型实例规格族的特点和指标数据 |
您所在的位置:网站首页 › 阿里云GPU服务器 › GPU计算型实例规格族的特点和指标数据 |
主售(推荐类型) GPU计算型实例规格族gn7e GPU计算型实例规格族gn7i GPU计算型实例规格族gn7s GPU计算型实例规格族gn7 GPU计算型实例规格族gn7r GPU计算型实例规格族gn6i GPU计算型实例规格族gn6e GPU计算型实例规格族gn6v GPU计算型弹性裸金属服务器实例规格族ebmgn7ex GPU计算型弹性裸金属服务器实例规格族ebmgn7e GPU计算型弹性裸金属服务器实例规格族ebmgn7ix GPU计算型弹性裸金属服务器实例规格族ebmgn7i GPU计算型弹性裸金属服务器实例规格族ebmgn7 GPU计算型弹性裸金属服务器实例规格族ebmgn6ia GPU计算型弹性裸金属服务器实例规格族ebmgn6e GPU计算型弹性裸金属服务器实例规格族ebmgn6v GPU计算型弹性裸金属服务器实例规格族ebmgn6i GPU计算型超级计算集群实例规格族sccgn7ex 在售(如果售罄,建议使用主售的规格族) GPU计算型实例规格族gn5i GPU计算型实例规格族gn7egn7e的特点如下: 您可以根据需要选择不同卡数和不同CPU资源的规格,灵活适应其不同的AI业务需求。 依托第三代神龙架构,VPC和云盘网络带宽相比上一代平均提升一倍。 存储: I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: 中小规模的AI训练业务 使用CUDA进行加速的HPC业务 对GPU处理能力或显存容量需求较高的AI推理业务 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用 高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 重要在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。 gn7e包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.gn7e-c16g1.4xlarge 16 125 80GB * 1 8 300万 8 8 10 ecs.gn7e-c16g1.16xlarge 64 500 80GB * 4 32 1200万 32 8 10 ecs.gn7e-c16g1.32xlarge 128 1000 80GB * 8 64 2400万 32 16 15 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 在云服务器ECS控制台创建gn7e实例或重启gn7e实例后,系统默认该实例的MIG(Multi-Instance GPU)功能是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。 gn7e实例是否支持开启MIG功能的说明如下所示: 实例规格 是否支持开启MIG功能 说明 ecs.gn7e-c16g1.4xlarge 是 单卡实例支持开启MIG功能。 ecs.gn7e-c16g1.16xlarge 否 多卡实例因安全因素不支持开启MIG功能。 ecs.gn7e-c16g1.32xlarge 否 GPU计算型实例规格族gn7ign7i的特点如下: 依托第三代神龙架构,提供稳定可预期的超高性能。同时通过芯片快速路径加速手段,完成存储、网络性能以及计算稳定性的数量级提升。 计算: 采用NVIDIA A10 GPU卡 创新的Ampere架构 支持RTX、TensorRT等常用加速功能 处理器:2.9 GHz主频的Intel ® Xeon ® 可扩展处理器(Ice Lake),全核睿频3.5 GHz 最大可提供752 GiB内存,相比gn6i大幅提升 存储: I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: 配备高性能CPU、内存、GPU,可以处理更多并发AI推理任务,适用于图像识别、语音识别、行为识别业务 支持RTX功能,搭配高主频CPU,提供高性能的3D图形虚拟化能力,适用于远程图形设计、云游戏等高强度图形处理业务 gn7i包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.gn7i-c8g1.2xlarge 8 30 NVIDIA A10 * 1 24GB * 1 16 160万 8 4 15 ecs.gn7i-c16g1.4xlarge 16 60 NVIDIA A10 * 1 24GB * 1 16 300万 8 8 30 ecs.gn7i-c32g1.8xlarge 32 188 NVIDIA A10 * 1 24GB * 1 16 600万 12 8 30 ecs.gn7i-c32g1.16xlarge 64 376 NVIDIA A10 * 2 24GB * 2 32 1200万 16 15 30 ecs.gn7i-c32g1.32xlarge 128 752 NVIDIA A10 * 4 24GB * 4 64 2400万 32 15 30 ecs.gn7i-c48g1.12xlarge 48 310 NVIDIA A10 * 1 24GB * 1 16 900万 16 8 30 ecs.gn7i-c56g1.14xlarge 56 346 NVIDIA A10 * 1 24GB * 1 16 1200万 16 12 30 ecs.gn7i-2x.8xlarge 32 128 NVIDIA A10 * 2 24GB * 2 16 600万 16 8 30 ecs.gn7i-4x.8xlarge 32 128 NVIDIA A10 * 4 24GB * 4 16 600万 16 8 30 ecs.gn7i-4x.16xlarge 64 256 NVIDIA A10 * 4 24GB * 4 32 1200万 32 8 30 ecs.gn7i-8x.32xlarge 128 512 NVIDIA A10 * 8 24GB * 8 64 2400万 32 16 30 ecs.gn7i-8x.16xlarge 64 256 NVIDIA A10 * 8 24GB * 8 32 1200万 32 8 30 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 ecs.gn7i-2x.8xlarge、ecs.gn7i-4x.8xlarge、ecs.gn7i-4x.16xlarge、ecs.gn7i-8x.32xlarge以及ecs.gn7i-8x.16xlarge实例规格支持更改为ecs.gn7i-c8g1.2xlarge或ecs.gn7i-c16g1.4xlarge实例规格,但不支持更改为ecs.gn7i-c32g1.8xlarge等其他实例规格。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 GPU计算型实例规格族gn7sgn7s的特点如下: 采用全新的Intel IceLake处理器,同时搭载Nvidia Ampere架构的NVIDIA A30 GPU卡,您可以根据需要选择不同卡数和不同CPU资源的规格,灵活适应不同的AI业务需求。 基于阿里云全新的第三代神龙架构,VPC和云盘网络带宽相比上一代平均提升一倍。 计算: 采用NVIDIA A30 GPU卡 创新的Nvidia Ampere架构 支持MIG(Multi-Instance GPU)功能、加速功能(基于第二代Tensor Cores加速),提供多种业务支持。 处理器:2.9 GHz主频的Intel ® Xeon ® 可扩展处理器(Ice Lake),全核睿频3.5 GHz 容量内存相比上一代实例规格族大幅提升 存储:仅支持ESSD云盘和ESSD AutoPL云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景:配备高性能CPU、内存、GPU,可以处理更多并发AI推理业务需求,适用于图像识别、语音识别、行为识别业务。 gn7s包括的实例规格及指标数据如下表所示: 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 单网卡支持的IPv6地址数 多队列 弹性网卡 ecs.gn7s-c8g1.2xlarge 8 60 NVIDIA A30 * 1 24GB * 1 16 600万 1 12 8 ecs.gn7s-c16g1.4xlarge 16 120 NVIDIA A30 * 1 24GB * 1 16 600万 1 12 8 ecs.gn7s-c32g1.8xlarge 32 250 NVIDIA A30 * 1 24GB * 1 16 600万 1 12 8 ecs.gn7s-c32g1.16xlarge 64 500 NVIDIA A30 * 2 24GB * 2 32 1200万 1 16 15 ecs.gn7s-c32g1.32xlarge 128 1000 NVIDIA A30 * 4 24GB * 4 64 2400万 1 32 15 ecs.gn7s-c48g1.12xlarge 48 380 NVIDIA A30 * 1 24GB * 1 16 600万 1 12 8 ecs.gn7s-c56g1.14xlarge 56 440 NVIDIA A30 * 1 24GB * 1 16 600万 1 12 8 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 在云服务器ECS控制台创建gn7s实例后,系统默认该实例的MIG(Multi-Instance GPU)功能是关闭状态。开启MIG(Multi-Instance GPU)功能后,在多个任务并行的场景下可以提高GPU的利用率,关于如何开启MIG(Multi-Instance GPU)的具体操作,请参见Getting Started with MIG。 开启或关闭MIG功能的命令示例,例如: 开启GPU 0的MIG功能 nvidia-smi -i 0 -mig 1关闭GPU 0的MIG功能 nvidia-smi -i 0 -mig 0gn7s实例是否支持开启MIG功能的说明如下所示: 实例规格 是否支持开启MIG功能 说明 ecs.gn7s-c8g1.2xlarge 是 gn7s规格族实例均支持开启MIG功能,您可以根据自己的业务需求开启或关闭MIG功能。 重启gn7s实例对MIG状态的影响如下: 外部重启gn7s实例(例如通过控制台重启实例)时,该实例的MIG状态会发生变化。您可以通过执行nvidia-smi命令查看MIG状态。 外部关机(即通过控制台关机),然后再开机时,实例的MIG功能也会发生变化。 内部重启gn7s实例(例如通过reboot命令重启实例)时,该实例的MIG状态不会发生变化。 ecs.gn7s-c16g1.4xlarge ecs.gn7s-c32g1.8xlarge ecs.gn7s-c32g1.16xlarge ecs.gn7s-c32g1.32xlarge ecs.gn7s-c48g1.12xlarge ecs.gn7s-c56g1.14xlarge GPU计算型实例规格族gn7gn7的特点如下: 存储: I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用 高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 gn7包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 ecs.gn7-c12g1.3xlarge 12 94 40GB * 1 4 250万 4 8 ecs.gn7-c13g1.13xlarge 52 378 40GB * 4 16 900万 16 8 ecs.gn7-c13g1.26xlarge 104 756 40GB * 8 30 1800万 16 15 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 在云服务器ECS控制台创建gn7实例或重启gn7实例后,系统默认该实例的MIG(Multi-Instance GPU)功能是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。 gn7实例是否支持开启MIG功能的说明如下所示: 实例规格 是否支持开启MIG功能 说明 ecs.gn7-c12g1.3xlarge 是 单卡实例支持开启MIG功能。 ecs.gn7-c13g1.13xlarge 否 多卡实例因安全因素不支持开启MIG功能。 ecs.gn7-c13g1.26xlarge 否 GPU计算型实例规格族gn7r该实例规格族正在邀测中,如需使用,请提交工单。 gn7r的特点如下: gn7r是阿里云推出的企业级ARM处理器+GPU的多功能规格族产品。以ARM架构为开发Android线上应用和云手机、云手游等业务,为其提供云原生底层资源平台。同时,其配备的NVIDIA A16 GPU具备多芯片硬件转码能力,可以作为高性价比的视频转码平台,将成本降低至ASIC类转码平台的水平。同时支持基于CUDA的计算架构,可在解码后直接在GPU上进行AI识别和分析。 基于第三代神龙架构,通过CIPU云处理器进行云端资源管理,提供稳定可预期的超高计算、存储和网络性能 采用NVIDIA A16 GPU计算加速器提供GPU加速能力,支持图形加速、硬件转码和AI业务 说明每块NVIDIA A16卡包含4个GA 107处理芯片。 计算: 处理器:3.0 GHz主频的Ampere ® Altra ® Max处理器,原生ARM计算平台为Android服务器提供高效的性能和优秀的App兼容性 存储:仅支持ESSD云盘和ESSD AutoPL云盘 网络: 支持IPv4、IPv6 适用场景:基于Android提供APP远端服务,例如云业务在线待机、云手游和云手机、Android业务爬虫、视频业务转码和视频识别、审查、视频编辑等。 gn7r包括的实例规格及指标数据如下表所示: 实例规格 vCPU 内存(GiB) GPU 网络带宽(Gbit/s) 网络收发包PPS 单网卡支持的IPv4地址数 单网卡支持的IPv6地址数 多队列 弹性网卡 ecs.gn7r-c16g1.4xlarge 16 64 NVIDIA GA107 * 1 8 300万 15 15 8 8 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 GPU计算型实例规格族gn6ign6i的特点如下: 计算: GPU加速器:T4 创新的Turing架构 单GPU显存16 GB(GPU显存带宽320 GB/s) 单GPU 2560个CUDA Cores 单GPU多达320个Turing Tensor Cores 可变精度Tensor Cores支持65 TFlops FP16、130 INT8 TOPS、260 INT4 TOPS 处理器与内存配比约为1:4 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake) 存储: I/O优化实例 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: AI(DL和ML)推理,适合计算机视觉、语音识别、语音合成、NLP、机器翻译、推荐系统 云游戏云端实时渲染 AR和VR的云端实时渲染 重载图形计算或图形工作站 GPU加速数据库 高性能计算 gn6i包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 存储IOPS基准 多队列 弹性网卡 单网卡私有IP ecs.gn6i-c4g1.xlarge 4 15 NVIDIA T4 * 1 16GB * 1 4 50万 无 2 2 10 ecs.gn6i-c8g1.2xlarge 8 31 NVIDIA T4 * 1 16GB * 1 5 80万 无 2 2 10 ecs.gn6i-c16g1.4xlarge 16 62 NVIDIA T4 * 1 16GB * 1 6 100万 无 4 3 10 ecs.gn6i-c24g1.6xlarge 24 93 NVIDIA T4 * 1 16GB * 1 7.5 120万 无 6 4 10 ecs.gn6i-c40g1.10xlarge 40 155 NVIDIA T4 * 1 16GB * 1 10 160万 无 16 10 10 ecs.gn6i-c24g1.12xlarge 48 186 NVIDIA T4 * 2 16GB * 2 15 240万 无 12 6 10 ecs.gn6i-c24g1.24xlarge 96 372 NVIDIA T4 * 4 16GB * 4 30 480万 25万 24 8 10 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 GPU计算型实例规格族gn6egn6e的特点如下: 计算: 采用NVIDIA V100(32 GB NVLink)GPU卡 GPU加速器:V100(SXM2封装) 创新的Volta架构 单GPU显存32 GB HBM2(GPU显存带宽900 GB/s) 单GPU 5120个CUDA Cores 单GPU 640个Tensor Cores 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s 处理器与内存配比约为1:8 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake) 存储: I/O优化实例 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练、推理应用 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 gn6e包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.gn6e-c12g1.3xlarge 12 92 NVIDIA V100 * 1 32GB * 1 5 80万 8 6 10 ecs.gn6e-c12g1.12xlarge 48 368 NVIDIA V100 * 4 32GB * 4 16 240万 8 8 20 ecs.gn6e-c12g1.24xlarge 96 736 NVIDIA V100 * 8 32GB * 8 32 480万 16 8 20 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 GPU计算型实例规格族gn6vgn6v的特点如下: 计算: 采用NVIDIA V100 GPU卡 GPU加速器:V100(SXM2封装) 创新的Volta架构 单GPU显存16 GB HBM2(GPU显存带宽900 GB/s) 单GPU 5120个CUDA Cores 单GPU 640个Tensor Cores 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 Git/s,总带宽为6×25×2=300 Git/s 处理器与内存配比约为1:4 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake) 存储: I/O优化实例 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练、推理应用 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 gn6v包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 存储IOPS基准 多队列 弹性网卡 单网卡私有IP ecs.gn6v-c8g1.2xlarge 8 32 NVIDIA V100 * 1 16GB * 1 2.5 80万 无 4 4 10 ecs.gn6v-c8g1.8xlarge 32 128 NVIDIA V100 * 4 16GB * 4 10 200万 无 8 8 20 ecs.gn6v-c8g1.16xlarge 64 256 NVIDIA V100 * 8 16GB * 8 20 250万 无 16 8 20 ecs.gn6v-c10g1.20xlarge 82 336 NVIDIA V100 * 8 16GB * 8 32 450万 25万 16 8 20 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 GPU计算型弹性裸金属服务器实例规格族ebmgn7exebmgn7ex的特点如下: ebmgn7ex是阿里云为了面对日益增长的大规模AI训练需求开发的高带宽实例。ebmgn7ex依托第四代神龙架构,采用阿里云全新CIPU架构,多台裸金属之间通过eRDMA网络互联,在160 Gbit/s的互联带宽下实现RDMA通信。打开eRDMA后,您可以根据训练需求弹性选择集群中的机器数量,快速满足大规模AI训练的需求。 计算 处理器:基于Intel ® 第三代 Xeon ®Scalable计算平台(Icelake),2.9 GHz主频,全核睿频3.5 GHz,支持PCIe 4.0接口 存储 I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络 支持IPv4、IPv6 支持物理网卡 超高网络性能,2400万PPS网络收发包能力 支持ERI(Elastic RDMA Interface),可以在VPC网络下实现RDMA直通加速互联,将带宽提升至160 Gbit/s 说明关于ERI的使用说明,请参见在企业级实例上配置eRDMA或者在GPU实例上配置eRDMA。 适用场景 各类深度学习训练开发业务 HPC加速计算和仿真 重要在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。 ebmgn7ex包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU显存 网络带宽(Gbit/s) 网络收发包PPS 单网卡IPv4地址数 单网卡IPv6地址数 物理网卡数 多队列(主网卡/辅助网卡) 弹性网卡 ecs.ebmgn7ex.32xlarge 128 1024 80GB * 8 160(80 * 2) 2400万 30 30 2 32/32 16 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 ebmgn7ex实例规格所使用的镜像启动模式必须为UEFI模式。如果您需要使用自定义镜像,请确保该自定义镜像支持UEFI启动模式,并且镜像的启动模式属性已设置为UEFI模式。具体操作,请参见通过API设置自定义镜像的启动模式为UEFI模式。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型弹性裸金属服务器实例规格族ebmgn7eebmgn7e的特点如下: 基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备 计算 处理器:基于Intel ® Xeon ®Scalable计算平台,2.9 GHz主频,全核睿频3.5 GHz,支持PCIe 4.0接口 存储 I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络 支持IPv6 超高网络性能,2400万PPS网络收发包能力 适用场景 各类深度学习训练开发业务 HPC加速计算和仿真 重要在使用高通信负载的AI训练业务如Transformer等模型时,务必启用NVLink进行GPU间的数据通信,否则可能由于PCIe链路大规模数据传输引起非预期的故障,导致数据受损。如不确定您使用的训练通信链路拓扑,请提交工单由阿里云技术专家为您提供技术支持。 ebmgn7e包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列(主网卡/辅助网卡) 弹性网卡 ecs.ebmgn7e.32xlarge 128 1024 80GB * 8 64 2400万 32/12 32 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 MIG(Multi-Instance GPU)功能需要您在ebmgn7e实例启动后自行检查并决定是否开启或关闭,系统无法保证MIG(Multi-Instance GPU)功能是开启或关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。 ebmgn7e实例是否支持开启MIG功能的说明如下所示: 实例规格 是否支持开启MIG功能 说明 ecs.ebmgn7e.32xlarge 是 ebmgn7e裸金属实例支持开启MIG功能。 GPU计算型弹性裸金属服务器实例规格族ebmgn7ixebmgn7ix特点如下: 说明ebmgn7ix是阿里云基于近期AI生成业务的发展推出的一款新型弹性裸金属实例规格族,每个实例为一台采用了8个A10 GPU计算卡的裸金属主机。 采用最新的CIPU 1.0云处理器,解耦计算和存储能力,可以灵活选择所需存储资源。相对于上一代,该实例规格的机器间带宽提升至160 Gbit/s,可以更快地完成数据传输和处理,并应对小规模的多机训练业务。 提供了裸金属规格能力,相对于传统虚拟化实例,可以支持GPU实例之间的P2P通信,大幅提升多GPU的计算效率。 计算 采用NVIDIA A10 GPU计算卡 创新的Ampere架构 支持vGPU、RTX、TensorRT等常用加速功能 处理器:2.9 GHz主频的Intel ® Xeon ®可扩展处理器(Ice Lake),全核睿频3.5 GHz 存储 均为I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络 支持IPv4、IPv6 超高网络性能,2400万PPS网络收发包能力 支持ERI(Elastic RDMA Interface),可以在VPC网络下实现RDMA直通加速互联,将带宽提升至160 Gbit/s 说明关于ERI的使用说明,请参见在企业级实例上配置eRDMA或在GPU实例上配置eRDMA。 适用场景 结合云市场的GRID镜像启动A10的图形能力,提供高效的图形处理能力,适用于动漫、影视特效制作和渲染 结合ACK容器化管理能力,更高效、低成本地支撑AIGC图形生成和LLM大模型推理(最大支持130 B) 其他通用AI识别场景、图像识别、语音识别等 ebmgn7ix包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU 网络带宽(Gbit/s) 网络收发包PPS 单网卡IPv4地址数 单网卡IPv6地址数 多队列(主网卡/辅助网卡) 弹性网卡 ecs.ebmgn7ix.32xlarge 128 512 NVIDIA A10 * 8 160 2400万 30 30 32/32 16 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 ebmgn7ix实例规格所使用的镜像启动模式必须为UEFI模式。如果您需要使用自定义镜像,请确保该自定义镜像支持UEFI启动模式,并且镜像的启动模式属性已设置为UEFI模式。具体操作,请参见通过API设置自定义镜像的启动模式为UEFI模式。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型弹性裸金属服务器实例规格族ebmgn7iebmgn7i的特点如下: 基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备 计算 采用NVIDIA A10 GPU计算卡 创新的Ampere架构 支持vGPU、RTX、TensorRT等常用加速功能 处理器:2.9 GHz主频的Intel ® Xeon ®可扩展处理器(Ice Lake),全核睿频3.5 GHz 存储 I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络 支持IPv6 超高网络性能,2400万PPS网络收发包能力 适用场景 配备高性能CPU、内存、GPU,可以处理更多并发AI推理任务,适用于图像识别、语音识别、行为识别业务 支持RTX功能,搭配高主频CPU,提供高性能的3D图形虚拟化能力,适用于远程图形设计、云游戏等高强度图形处理业务 支持RTX功能,搭配高网络带宽和云盘带宽,适用于搭建高性能渲染农场 配备多个GPU,搭配高网络带宽,适用于小规模深度学习训练业务 ebmgn7i包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 ecs.ebmgn7i.32xlarge 128 768 NVIDIA A10 * 4 24GB * 4 64 2400万 32 32 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型弹性裸金属服务器实例规格族ebmgn7ebmgn7的特点如下: 基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备 计算 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8269CY(Cascade Lake) 存储 I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练应用 高GPU负载的科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 ebmgn7包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.ebmgn7.26xlarge 104 768 30 1800万 16 15 10 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 MIG(Multi-Instance GPU)功能需要您在ebmgn7实例启动后自己检查并决定是否开启或关闭,系统无法保证MIG(Multi-Instance GPU)功能是开启还是关闭状态。关于MIG(Multi-Instance GPU)的更多信息,请参见NVIDIA Multi-Instance GPU User Guide。 ebmgn7实例是否支持开启MIG功能的说明如下所示: 实例规格 是否支持开启MIG功能 说明 ecs.ebmgn7.26xlarge 是 ebmgn7裸金属实例支持开启MIG功能。 GPU计算型弹性裸金属服务器实例规格族ebmgn6iaebmgn6ia的特点如下: 依托第三代神龙架构,通过芯片快速路径加速手段,提供稳定可预期的超高计算、存储和网络性能 采用NVIDIA T4 GPU计算加速器提供GPU加速能力,助力图形和AI业务,搭配容器技术可以提供60路以上虚拟Android终端,并对每路终端显示进行硬件视频转码加速 计算 处理器与内存配比约为1:3 处理器:2.8 GHz主频的Ampere® Altra®处理器,睿频3.0 GHz,原生ARM计算平台为Android服务器提供高效的性能和优秀的App兼容性 存储 I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络:支持IPv6 适用场景:基于Android提供App远端服务,例如云业务在线待机、云手游和云手机、Android业务爬虫 ebmgn6ia包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.ebmgn6ia.20xlarge 80 256 NVIDIA T4 * 2 16GB * 2 32 2400万 32 15 10 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 Ampere® Altra®处理器对操作系统内核版本有一定要求。当您使用该实例规格创建ECS实例时,可以直接选用Alibaba Cloud Linux 3和CentOS 8.4及以上版本的操作系统镜像(建议您使用Alibaba Cloud Linux 3镜像)。如果您需要使用其他操作系统版本,请参见Ampere Altra (TM) Linux Kernel Porting Guide,在指定操作系统的ECS实例中为内核打上相应的补丁,完成之后基于该ECS实例创建自定义镜像,然后再通过自定义镜像创建新的ECS实例时选择该实例规格。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型弹性裸金属服务器实例规格族ebmgn6eebmgn6e的特点如下: 基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备 采用NVIDIA V100(32 GB NVLink) GPU计算卡 GPU加速器:V100(SXM2封装) 创新的Volta架构 单GPU显存32 GB HBM2(GPU显存带宽900 GB/s) 单GPU 5120个CUDA Cores 单GPU 640个Tensor Cores 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 GB/s,总带宽为6×25×2=300 GB/s 计算 处理器与内存配比为1:8 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake) 存储 I/O优化实例 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘 网络 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练以及推理应用 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 ebmgn6e包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.ebmgn6e.24xlarge 96 768 NVIDIA V100 * 8 32GB * 8 32 480万 16 15 10 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型弹性裸金属服务器实例规格族ebmgn6vebmgn6v的特点如下: 基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备 采用NVIDIA V100 GPU计算卡 GPU加速器:V100(SXM2封装) 创新的Volta架构 单GPU显存16 GB HBM2(GPU显存带宽900 GB/s) 单GPU 5120个CUDA Cores 单GPU 640个Tensor Cores 单GPU支持6个NVLink链路(NVLink属于双向链路),单向链路的带宽为25 GB/s,总带宽为6×25×2=300 GB/s 计算 处理器与内存配比为1:4 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake) 存储 I/O优化实例 仅支持ESSD云盘、ESSD AutoPL云盘、SSD云盘和高效云盘 网络 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景 深度学习,例如图像分类、无人驾驶、语音识别等人工智能算法的训练以及推理应用 科学计算,例如计算流体动力学、计算金融学、分子动力学、环境分析等 ebmgn6v包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.ebmgn6v.24xlarge 96 384 NVIDIA V100 * 8 16GB * 8 30 450万 8 32 10 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型弹性裸金属服务器实例规格族ebmgn6iebmgn6i的特点如下: 基于神龙架构,实现软件定义硬件计算,灵活弹性与强悍性能兼备 GPU加速器:T4 创新的Turing架构 单GPU显存16 GB(GPU显存带宽320 GB/s) 单GPU 2560个CUDA Cores 单GPU多达320个Turing Tensor Cores 可变精度Tensor Cores支持65 TFlops FP16、130 INT8 TOPS、260 INT4 TOPS 计算 处理器与内存配比为1:4 处理器:2.5 GHz主频的Intel ® Xeon ® Platinum 8163(Skylake) 存储 I/O优化实例 仅支持ESSD、ESSD AutoPL云盘、SSD云盘和高效云盘 网络 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景 AI(DL/ML)推理,适合计算机视觉、语音识别、语音合成、NLP、机器翻译、推荐系统 云游戏云端实时渲染 AR/VR的云端实时渲染 重载图形计算或图形工作站 GPU加速数据库 高性能计算 ebmgn6i包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.ebmgn6i.24xlarge 96 384 NVIDIA T4 * 4 16GB * 4 30 450万 8 32 10 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 暂无法获取EBM弹性裸金属实例的CPU基础监控信息,您可通过安装云监控插件获取CPU监控信息。具体操作,请参见安装云监控插件。 GPU计算型超级计算集群实例规格族sccgn7exsccgn7ex的特点如下: sccgn7ex是阿里云为了面对日益增长的大规模AI训练需求开发的高带宽超算集群实例。多台裸金属服务器之间采用第三代RDMA SCC网络互联,支持800 G的互联带宽。您可以根据训练需求弹性选择线上集群数量,快速满足大规模AI参数训练的需求。 计算: 支持NVSwitch,算力高达312T(TF32) 处理器与内存配比为1:8 处理器:采用第三代Intel® Xeon® 8369可扩展处理器(Ice lake),基频2.9 GHz,全核睿频3.5 GHz,支持PCIe 4.0接口 存储: I/O优化实例 仅支持ESSD云盘和ESSD AutoPL云盘 网络: 支持IPv6 仅支持专有网络VPC 超高网络性能,2400万PPS网络收发包能力 sccgn7ex实例间支持800 Gbit/s的互联带宽(4 * 双口100 Gbit/s RDMA),支持GPUDirect,每颗GPU直连一个100 Gbit/s网口 适用场景:超大规模AI训练场景 sccgn7ex包括的实例规格及指标数据如下表所示。 实例规格 vCPU 内存(GiB) GPU显存(GB) 网络带宽(Gbit/s) 网络收发包PPS RoCE网络(Gbit/s) 多队列(主网卡/辅助网卡) 弹性网卡 单网卡私有IPv4地址数 单网卡IPv6地址数 ecs.sccgn7ex.32xlarge 128 1024 80 GB * 8 64 2400万 800 32/12 32 15 15 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。 GPU计算型实例规格族gn5ign5i的特点如下: 计算: 采用NVIDIA P4 GPU卡 处理器与内存配比为1:4 处理器:2.5 GHz主频的Intel ® Xeon ® E5-2682 v4(Broadwell) 存储: I/O优化实例 仅支持SSD云盘和高效云盘 网络: 支持IPv6 实例网络性能与计算规格对应(规格越高网络性能越强) 适用场景: 深度学习推理 多媒体编解码等服务器端GPU计算工作负载 gn5i包括的实例规格及指标数据如下: 实例规格 vCPU 内存(GiB) GPU GPU显存 网络带宽(Gbit/s) 网络收发包PPS 多队列 弹性网卡 单网卡私有IP ecs.gn5i-c2g1.large 2 8 NVIDIA P4 * 1 8GB * 1 1 10万 2 2 6 ecs.gn5i-c4g1.xlarge 4 16 NVIDIA P4 * 1 8GB * 1 1.5 20万 2 3 10 ecs.gn5i-c8g1.2xlarge 8 32 NVIDIA P4 * 1 8GB * 1 2 40万 4 4 10 ecs.gn5i-c16g1.4xlarge 16 64 NVIDIA P4 * 1 8GB * 1 3 80万 4 8 20 ecs.gn5i-c16g1.8xlarge 32 128 NVIDIA P4 * 2 8GB * 2 6 120万 8 8 20 ecs.gn5i-c28g1.14xlarge 56 224 NVIDIA P4 * 2 8GB * 2 10 200万 14 8 20 说明您可以前往ECS实例可购买地域,查看实例在各地域的可购情况。 指标的含义请参见实例规格指标说明。由于业务场景的不同,网络收发包PPS会存在明显差异。因此,我们建议您进行业务压测以了解实例的性能表现,以便选择合适的实例规格。 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |