百度+长城与飞腾 联合推出国产AI平台解决方案

您所在的位置:网站首页 国产服务器适配cpu 百度+长城与飞腾 联合推出国产AI平台解决方案

百度+长城与飞腾 联合推出国产AI平台解决方案

2024-07-17 20:26| 来源: 网络整理| 查看: 265

    1.总体框架

 基于长城全国产AI服务器搭建飞腾CPU芯片和昆仑AI芯片,通过docker实现对深度学习框架的管理,主要框架包括Paddlepaddle、Pytorch、tensorflow、caffe、Mxnet等,同时通过Kubernetes对芯片、加速卡、算法应用进行资源管理,建设全国产AI云平台。

 在AI模型和应用场景方面,支持图像分类、目标检测、语义分析、机器翻译、情感分析、语言模型、语音合成、语音识别等功能,满足智慧金融、智能电力、智慧能源、智能制造、智慧政务、智慧交通等行业应用的AI智能需求。

(1)CPU介绍

面向AI服务器场景的飞腾FT2000+/64芯片,是一款高性能的服务器CPU芯片,它具备64个CPU核心,16nm工艺,主频2.0-2.3GHz,在政务、金融、电信等领域有规模应用,性能与Intel E5系列芯片相当,Unixbench系统评分达到8000分,典型功耗100W,目前与多款GPU及加速卡已完成了适配,基于飞腾芯片的AI服务器生态已初具规模。

  (2)长城整机产品介绍

长城智擎ZQ2200自主AI服务器是一款国产自主高性能异构融合AI服务器产品,采用FT2000+/64芯片和昆仑AI训练加速卡K200异构,ZQ2200全自主AI服务器具备640万亿次AI算力能力,在AI训练能效方面可以达到360Gflops/w,同时可扩展支持10个PCIE插槽。

 

 

  (3)百度昆仑介绍

 百度昆仑AI芯片是百度自主研发,具有自主知识产权的AI通用处理器芯片。昆仑芯片采用百度的自主XPU架构(该架构连续发表论文在hotchips2014/2016/2017/2020上, 深受业界认可),非常适合常用的深度学习和机器学习算法的云端计算需求,并能适配诸如自然语言处理、大规模语音识别、自动驾驶、大规模推荐等多种终端场景的计算需求。

     百度早在 2012 年启动了基于 FPGA 的机器学习芯片研发,到 2017 年,累积在数据中心内部规模应用了超过 10000 片。2018年,百度启动自研 AI 芯片(昆仑)项目,第一代昆仑芯片,采用14nm 先进工艺,HBM先进内存,230Tops 的性能(基础版本性能,可以升频以达到256Tops性能),512GB/s 的带宽,可以同时做训练和推理,在业界具有领先的技术指标。同时,百度昆仑具备较好的软硬件开放性,能更好的适配国产服务器和国产CPU产业生态。

  2.软件系统

   

 基于百度昆仑的软件技术栈主要分为三层,自底向上分别为:

    1)百度昆仑SDK

 这是百度昆仑的核心库,包含了一套神经网络算子库,linux驱动,运行时程序库,神经网络图引擎框架等。这套核心库对用户提供了灵活的可编程接口,使得百度昆仑能方便的应用于灵活多变的应用场景中。

    2)深度学习框架和模型应用

 这一层包含了业界常用的深度学习框架和深度学习模型,按照应用场景划分,目前业界应用基本聚焦于CV(图像分类、目标检测)、NLP(语义分析、机器翻译、情感分析、语言模型)和语音(语音识别、语音合成)等领域。在实际应用中,通常还需要跟AI平台结合起来,实现资源虚拟化、集群管理、任务调度、多机多卡联合训练等功能。

    3)行业解决方案

 在这一层主要面向行业垂类,解决客户的实际问题,通常需要整合多个深度学习应用场景,提供的是一整套完整的软硬件解决方案。

   



【本文地址】


今日新闻


推荐新闻


    CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3