11 分钟内训练一遍 GPT-3,8 秒训完 BERT。
这就是英伟达给 AI 圈的一点“小小震撼”。
在最新 MLPerf 训练基准测试中,英伟达 H100 集群,横扫八项测试,全部创下新纪录,并且在大语言模型任务中表现尤为突出!
在大语言模型任务中,H100 集群的加速性能逼近线性增长。
即随着集群处理器数量增加,加速效果也几乎同比增加。
这意味着在集群内 GPU 之间的通信效率非常高。
除此之外,H100 还完成了推荐算法、CV、医学图像识别以及语音识别等任务,是唯一一个参加 8 项测试的集群。
而在算力就是生产力的时代下,这波成绩意味着什么,懂得都懂。
据悉,本次测试系统由英伟达和 Inflection AI 联合开发,在云厂商 CoreWeave 上托管。
单节点性能增长明显
这次 MLPerf Training v3.0 中增加了两项新任务:
大语言模型
推荐算法
这意味着测试任务包含了更大的数据集和更先进的模型。
如上刷新各项记录的,是由 3584 块 H100 组成的超大集群。
它的具体成绩如下:
这是本轮测试中,英伟达拿出的最大集群。
实际上他们还提交了一个包含 768 块 H100 的集群进行测试,并分别在云上和本地部署。
结果显示二者性能几乎完全相同。
更进一步还论证了随着集群中显卡数量的增加,其性能提升可以接近线性增长。
除此之外,这轮测试中英伟达还刷新了单节点加速记录。
和 6 个月前 MLPef Training v2.1 的数据比较,单个 DGX H100 系统在各项任务中平均提速 17%。
和 A100 Tensor Core GPU 相比,最高能提速 3.1 倍。
这些加速效果的实现,主要得益于两个方面。
一方面是 H100 本身就足够强悍。
H100 基于最新 Hopper 架构,采用台积电 4nm 工艺,集成 800 亿个晶体管,较 A100 增加了 260 亿个。
内核数量达到前所未有的 16896 个,是 A100 的 2.5 倍。
由于面向 AI 计算,H100 中专门搭载了 Transformer Engine,让大模型训练速度可直接 ×6。
另一方面则是依赖集群内的加速网络。
这里使用的是英伟达 Quantum-2 InfiniBand 网络,是该网络架构的第七代。
据悉,共有 90 个系统参与最新一轮测试,其中 82 个使用了英伟达的 GPU,英特尔方面有 7 个系统参与。
英特尔的加速系统使用了 64-96 Intel Xeon Platinum 8380 处理器和 256-389 Intel Habana Gaudi2 加速器。
其高配系统完成 LLM 的训练时间为 311 分钟。
基于这次报告的测试结果,有分析师表示他感受到的最大震撼不是 H100 本身的性能,而是在云上训练 AI 实现的卓越效果。
那么这次和英伟达合作的云厂商 CoreWeave 是谁?联合开发系统 Inflection AI 又来者何人?
计算集群还会进一步扩大
首先来看 CoreWeave。
它成立于 2017 年,是一家大型云厂商,号称提供业内最快、最灵活的大规模 GPU 计算资源,提供渲染、机器学习等云上方案,速度比大型公共云快 35 倍,成本低 80%。
而这家云厂商很受科技巨头青睐,英伟达在此之前没少 cue 过它。
5 月,CoreWeave 拿下 2 亿美元融资,主要来自对冲基金 Magnetar Capital,B 轮总融资额达到 4.21 亿美元。
6 月,有消息称微软与 CoreWeave 签署 AI 算力协议,用于计算基础设施,未来数年内的投资金额可能数十亿美元。
英伟达也向 CoreWeave 投资了 1 亿美元,4 月时它的估值为 20 亿美元。
另一家 AI 初创公司 Inflection AI 由 DeepMind 创始成员穆斯塔法?苏莱曼等人创立。
这家公司成立于 22 年 3 月,已拿下 2.25 亿美元融资,估值超 12 亿美元。
公司已经开发出了一个大语言模型 Pi,正是在 H100 集群上训练出来的。
据了解,Pi 的定位是帮助人类更好和计算机交互,它能通过聊天内容来逐渐了解用户,然后提供更加个性化的回答,类似于个人智能管家的感觉。
Inflection AI 的最新 Blog 里表示,基于目前的合作,他们计划在未来几个月内进一步扩大底层计算基础设施的规模。
参考链接:
广告声明:本文含有的对外跳转链接,用于传递更多信息,节省甄选时间,结果仅供参考。IT之家所有文章均包含本声明。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
推荐阅读
2023-07-03 11:13
2023-07-03 11:13
2023-07-03 11:13
2023-07-03 11:13
2023-07-03 11:13
2023-07-03 11:13
2023-07-03 11:13
2023-07-03 11:13