写点什么

ai训练的效率正在超越摩尔定律-金马国际

  • 2022 年 2 月 16 日
  • 本文字数:1981 字

    阅读完需:约 6 分钟

仅仅在几年前,训练一个 ai 模型所需的时间还可能长达数周之久。


这也是过去几年间,计算行业间涌现了众多价值数十亿美元的创新初创公司的重要原因所在——这些公司包括了 cerebras systems、graphcore、habana labs 和 sambanova systems 等等。此外,谷歌、英特尔、英伟达和其他老牌公司也在企业内部投入了规模相当的巨额资金(有时还会发起收购计划)来探索这一领域。最新版本的 mlperf 训练基准结果表明,这笔钱是物有所值的。


mlperf 母公司 mlcommons 的执行董事 david kanter 表示,自 mlperf 基准测试开始上线以来,人工智能训练性能的提升速度“成功地大大超过了摩尔定律”


在早期版本的 mlperf 基准测试最佳结果与 2021 年 6 月之后的基准测试最佳结果之间,晶体管密度的增长可以解释其中一倍多的差异。但是软件以及处理器和计算机架构的改进则贡献了 6.8-11 倍的成绩增长。在最新的 1.1 版测试中,最佳结果是 6 月份最佳成绩的 2.3 倍。


根据英伟达的说法,使用 a100 gpu 的系统的性能相比 18 个月前的系统提高了 5 倍以上,相比三年前 mlperf 基准测试成绩首次发布时的结果提高了 20 倍。


微软首次将其 azure 云 ai 产品引入了 mlperf,使用各种资源在所有八个测试网络中取得了极佳的成绩。它们的规模从 2 个 amd epyc cpu 和 8 个英伟达 a100 gpu,直到 512 个 cpu 和 2048 个 gpu 不等。规模显然很重要。顶级规格的系统在不到一分钟的时间内就训练完了 ai 模型,而二八组合通常需要 20 分钟或更长时间。



“摩尔定律只能做到这么多。软件和其他进步在 ai 训练的进化道路上发挥了重要作用。”

——mlcommons


英伟达在基准测试中与微软密切合作。并且就像之前的 mlperf 列表中人们看到的一样,英伟达 gpu 是大多数参赛作品背后的 ai 加速器。包括戴尔、浪潮和 supermicro 的作品都采用了他们的 gpu。


英伟达凭借其 selene ai 超级计算机无与伦比的规模,在商用系统的所有结果中名列前茅。selene 由商用的模块化 dgx superpod 系统组成。在最大规模的测试中,selene 使用 1080 个 amd epyc cpu 和 4320 个 a100gpu 在不到 16 秒的时间内就训练完了自然语言处理器 bert,大多数小型系统完成同样的壮举需要花费大约 20 分钟。


根据英伟达的说法,使用 a100 gpu 的系统的性能相比 18 个月前的行业水平提高了 5 倍以上,相比三年前首次 mlperf 基准测试结果发布时提高了 20 倍。该公司表示,这要归功于软件创新和网络的改进成果。(有关更多信息,请参阅英伟达的)


鉴于英伟达在这些 ai 基准测试中的统治力和成绩表现,新生的竞争对手很自然地会将自身与它进行比较。这就是总部位于英国的 graphcore 正在做的事情,它指出他们研发的基本计算单元 pod16(1 个 cpu 和 16 个 ipu 加速器)比英伟达的基本单元 dgx a100(2 个 cpu 和 8 个 gpu)快了近一分钟。


graphcore 推出了更大的系统


对于这一版本的 mlperf,graphcore 使用其基本单元 pod64、pod128 和(你肯定猜得到吧?)pod256 的组合参加了图像分类和自然语言处理基准测试。pod256 由 32 个 cpu 和 256 个 ipu 组成,是仅次于英伟达的 selene 和英特尔的 habana gaudi 的第四快系统,以 3:48 完成了 resnet 图像分类训练。在自然语言处理方面,pod256 和 pod128 在榜单上排名第三和第四,再次落后于 selene,分别以 6:54 和 10:36 结束。(有关更多信息,请参阅 graphcore 的)


你可能已经注意到了,基于英伟达的产品(大约 1 比 4)和 graphcore 的系统(低至 1 比 32)对比,它们的 cpu 与加速器芯片的比率有很大不同。graphcore 工程师说,这是设计理念使然。ipu 旨在让神经网络减少对 cpu 控制的依赖。


你会在 habana labs 系统上看到相反的情况,英特尔在 2019 年以大约 20 亿美元的价格收购了它。例如,它在图像分类方面取得了很高的排名,为此英特尔使用 64 个 xeon cpu 和 128 个 habana gaudi 加速器在不到 5 分半的时间内训练完了 resnet。它还使用 32 个 cpu 和 64 个加速器,用时 11 分 52 秒训练完了 bert 自然语言神经网络。(更多信息请参阅 habana 的 )


谷歌对这批基准分数的贡献有点不一样。谷歌工程师没有使用该公司的 tpu v4 处理器技术搭载在商业或云系统上完成测试,而是提交了两个超大自然语言处理神经网络的结果。


该公司使用其公开可用的 tpu v4 云运行了一个版本的 lingvo,这是一种 nlp,其参数高达 4800 亿,而 bert 的参数为 1.1 亿。云平台使用 1024 个 amd epyc cpu 和 2048 个 tpu,在不到 20 小时的时间内完成了训练任务。使用由 512 个 amd rome cpu 和 1024 个 tpu 组成的研究系统,谷歌在 13.5 小时内训练了一个 2000 亿参数版本的 lingvo。(谷歌报告称,从头到尾完成整个过程需要 55 小时和 44 小时,包括开始训练所需的步骤。)


在结构上,lingvo 与 bert 非常相似,可以归入该类别,但它也类似于众多计算巨头一直在研究的其他真正巨型的对话 ai,例如 lamda 和 gpt-3。谷歌认为,巨大模型训练最终应该成为未来 mlperf 商业基准测试的一部分。(有关更多信息,请参阅谷歌的。)


然而,mlcommons 的 kanter 指出,训练此类系统的费用高到了足以将许多参与者排除在外。


原文链接:

2022 年 2 月 16 日 10:351238
infoq记者

发布了 851 篇内容, 共 287.8 次阅读, 收获喜欢 1613 次。

关注

评论

发布
暂无评论
发现更多内容

大规模 kubernetes 集群运维实践

大规模 kubernetes 集群运维实践

网站地图