AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些


MLPerf是用于测试ML(Machine Learning)硬件、软件及服务的训练和推理性能的公开基准 , 该行业基准测试组织自2018年5月成立以来 , 得到了亚马逊、百度、Facebook、谷歌、哈佛大学、英特尔、微软和斯坦福大学等支持 , 一直在跟随AI的发展步伐持续演进 。

AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些
本文插图

图源 | HPCwire
日前 , MLPerf基准联盟公布了最新一轮MLPerf 0.7 Training基准测试数据 , 测试内容及结果对于AI下一阶段的算力趋势、应用趋势都具有一定的指引性 。
可预见未来
GPU仍将主导AI芯片市场
作为AI芯片领域一个重要的基准测试 , MLPerf主要包括训练和推理两方面的性能测试 。 根据最新发布的MLPerf基准测试结果 , 英伟达在全球市售商用产品中AI训练性能创下纪录 , A100 GPU和DGX SuperPOD系统当选全球AI训练领域速度最快的市售商用产品 。
AI芯片已经成为人工智能的主要竞争领域 , 各种AI加速器不断孕育而生 , GPU也面临着在激烈的竞争中生存和发展 。 而今年5月英伟达发布的首款基于其Ampere架构的GPU A100 , 为追赶者又设置了新的标杆 。 相比于前代产品 , A100性能提升了20倍 , 一发布就是全面投产并已向全球客户交付的状态 。
尽管业界都期待能有新的芯片类型能与GPU抗衡 , 但根据最新公布的MLPerf 0.7 Training测试数据来看 , 英伟达在图像分类、NLP、推荐系统等八项测试中都超越了自家的V100 , 以及ASIC芯片的典型代表(如谷歌TPUv3、华为昇腾Ascend)而名列前茅 。

AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些
本文插图

NVIDIA Ampere架构在市售商用加速器的全部八项测试中领先
英伟达加速计算产品管理高级总监Paresh Kharya在面向包括在内的全球媒体的电话会议中表示 , 不仅是训练速度创下纪录 , 与此同时 , 英伟达是唯一一家在所有测试中均采用市售商用产品的公司 , 其他大多数提交使用的要么是预览类别(preview category) , 要么使用的是研究类别的产品 , 预计这些产品上市最快也需几个月之后 。
这也表明 , 在可预见的未来 , 英伟达GPU将继续引领AI加速训练市场 , 并有望在2020年及今后进一步增长 。 各种非GPU技术(包括CPU、ASIC、FPGA和神经网络处理单元) , 虽然也在性能、成本、能效等方面不断提升优势 , 但在商用落地方面仍需继续努力 。
算力为王时代
传统服务器加速升级换代
A100的商用速度也比以往任何NVIDIA GPU更快 。 A100在发布之初用于NVIDIA的第三代DGX系统 , 而正式发布仅六周后 , 就登陆了Google Cloud 。 还有AWS、百度云、微软Azure和腾讯云等全球领先的云提供商 , 以及Dell Technologies、HPE、浪潮和超微等数十家主要服务器制造商 , 均采用了A100 。
这也从另一个侧面反映出——云计算和AI的强大趋势正在推动数据中心设计的结构性转变 , 传统服务器正在被高效的加速计算基础架构所颠覆 。
另外要指出的是 , 英伟达是在Selene上运行了系统的MLPerf测试 , 它是基于DGX SuperPOD的内部集群 , 而DGX SuperPOD是针对大规模GPU集群的公共参考架构 , 可在数周内完成部署 。 在针对大规模计算性能的MLPerf基准测试中 , DGX SuperPOD系统内置了超过2000个A100 , 并通过HDR InfiniBand实现了多个DGX A100 系统互联 。 最终在性能上开创了8项全新里程碑 , 共打破16条纪录 。

AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些
本文插图

NVIDIA DGX SuperPOD系统为大规模AI训练树立全新里程碑
在GPU服务器市场 , 8卡GPU服务器和英伟达的V100加速卡一度是采购热点 , 占据了约30%以上的份额 。 以A100目前的商用速度来看 , 它可能会以超出预期的速度更快被市场所接纳 。 在算力为王的AI时代 , 谁会拒绝一款算力倍增的AI服务器呢?


推荐阅读