从阿里专家内部交流纪要看国内AI模型发展现状

您所在的位置:网站首页 国内吉祥物现状 从阿里专家内部交流纪要看国内AI模型发展现状

从阿里专家内部交流纪要看国内AI模型发展现状

2023-04-07 14:49| 来源: 网络整理| 查看: 265

0 分享至

用微信扫码二维码

分享至好友和朋友圈

本文主要描述了阿里眼中国内各家企业的大模型水平以及一些硬件算力的判断,同时结合部分其它信息整理。里面涉及到当前国内各大企业模型水平判断(如百度文心一言、华为盘古等)以及算力储备信息。

从阿里专家内部交流纪要看国内AI模型发展现状 | 数据学习者官方网站(Datalearner)

本纪要主要内容涉及如下:

一、国内目前各大公司大模型水平(包括百度文心一言和阿里自己的模型)与GPT-3.5有一定差距

1.1、百度文心一言

1.2、阿里大模型

1.3、腾讯HunYuan(混元)大模型

1.4、华为盘古大模型

二、国内大模型算力资源信息

2.1、各大AI芯片的水平

2.2、各家科技企业显卡数量

三、大模型成本

一、国内目前各大公司大模型水平(包括百度文心一言和阿里自己的模型)与GPT-3.5有一定差距

1.1、百度文心一言

A认为目前国内百度做的文心一言可能算是第一名,但是距离GPT-3还有差距,可能约等于GPT-2.5的水平(注意,没有GPT-2.5,他的意思应该是比GPT-2强,但是不如GPT-3)。未来持续迭代应该是可以达到GPT-3.5的水平。文心一言的模型应该是BERT架构。

1.2、阿里大模型

阿里在前2年已经发布了类似的模型,如M6(M6模型信息卡:https://www.datalearner.com/ai-models/pretrained-models/M6 )和PLUG(PLUG模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/PLUG )。尽管在当时宣称模型很好,但实际上与GPT比还是有不小差距。ChatGPT发布之后,当前阿里巴巴达摩院顶层领导已经聚集了100多人的团队做M6和PLUG的升级工作。目前距离GPT-3/GPT-3.5大约还有一年半的距离。重点:今年下半年云栖大会上M6的新模型大概在GPT-2.5左右!这意味着下半年发布的模型可能和百度文心一言现在的水平差不多,差距半年左右。但是M6是一个Transformer架构!

1.3、腾讯HunYuan(混元)大模型

混元是腾讯发布的一个自然语言大模型,首次公布应该是2022年11月(HunYuan-NLP 1T模型卡信息:https://www.datalearner.com/ai-models/pretrained-models/hunyuan-nlp-1t )。

HunYuan-NLP 1T是腾讯AI大模型“混元”的自然语言领域的预训练大模型。参数1万亿,刷新了中文领域预训练大模型的参数上限。2022年4月份,“混元”大模型取得了中文语言理解评测集合第一名之后,在11月份再次提交了1万亿参数的版本,也是“混元”大模型1万亿参数版本首次出现,并且将评测分数从4月份的80.888分提高到了83.632(4月份的榜单出现的名称是HunYuan_nlp,没有1T的字样)。

不过,该模型并没有发布详细信息,也没有论文可供参考。

A对混元的信息总结如下:

有听到是混元这个模型继续迭代,有大概100人左右做GPT复现以及自我模型迭代。应该会比我们的早,猜测大概8月份会出。但应该只是支持文生文的场景

1.4、华为盘古大模型

华为盘古大模型是业界比较知名的预训练大模型,但是只在华为云上提供服务,并且基于自己的昇腾服务器部署(昇腾910的性能约等于A100的70%)。

华为模型主要往B端发展,华为对AI大模型的投入一开始就没考虑2C作为重点。盘古的初衷也是服务B端用户,且在CV领域比较成熟,NLP比较薄弱。盘古大模型是分层设计,L0是通识大模型,L1是行业大模型(煤矿、电力等)、L2是具体场景的自动化部署模型。

二、国内大模型算力资源信息

大模型的一个重要的基础设施是算力,主要是显卡和计算卡。目前,国内国产的算力卡包括华为的昇藤910、寒武纪MLU370、百度的昆仑芯片、壁仞的显卡、海光等。

2.1、各大AI芯片的水平

寒武纪MLU370,主要是性能基本过关(A100的60-70%),检测合格,也是阿里云采购的国产芯片。目前,寒武纪MLU 370没有供货的风险,后续的MLU590也许就会有了。

对于壁仞等,宣传上不错,但拿不到实测的卡,流片大约都是今年4-6月,量产半年后。而且壁仞4月要流片的卡,不能支持FP64,互通带宽不支持8卡,支持最多4卡,采用NV bridge方式,达到180GB水平。8卡用PCIe方式只能做到32GB,弱点显著。

海光芯片:参数不错,但是没有实测的卡可用,似乎不是很在意AI市场。

华为昇藤910,约等于A100的70%,比寒武纪MLU370效果好。

2.2、各家科技企业显卡数量

阿里国内AI算力储备最多,然后以次为:字节、百度、腾讯。

阿里云上有上万块的A100,整体至少10万个。阿里集团的显卡数量是阿里云的5倍量级。达摩院、天猫、淘宝的算力资源都是集团内资源使用。阿里今年采购预计云上就1万张左右,其中6000张是H800。此外阿里云也会用到平头哥这种自研的,每年大概3000张去采购。

百度年初紧急下单3000台8卡的A800服务器,2.4万张卡。今年全年可能需求A-H800共5万张。(注意,这是2023年新增的资源)。

360最近也向NV下单上千个A800卡。

注意:A800是由于美国禁令导致A100受限,英伟达进而推出的国内定制版本。A800的芯片数据传输速率为每秒400GB,低于A100的每秒600GB,代表了数据中心的性能明显下降。

三、大模型成本

Stable diffusion模型一直在优化,以前一个推理任务一张A100、现在降级到一个推理任务一张V100。

#科技之巅#

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/ 返回网易首页 下载网易新闻客户端


【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3