AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些( 二 )


浪潮就在A100发布时同步推出了5款AI服务器 , 可支持8到16颗NVIDIA A100 Tensor Core GPU 。 笔者曾与浪潮方面探讨过未来的产品主流 , 据其说法 , 从过往三年AI服务器的发展历程来看 , 算力需求的线性增长在倒逼AI服务器的升级换代 。 由于AI算力的需求一直保持着50%的行业增速 , 在一些头部行业的增速甚至超过100% , 因此未来V100的AI服务器很可能会升级为A100的八卡服务器 。
而随着数据的爆炸增长与深度神经网络日趋复杂 , 单机或小型服务器已经无法满足算力需求 , 未来将有大量的AI应用和服务被放在云端 , AI算力需求正在逐步迈入高峰期 , 更多更高性能的AI服务器将在线下场景落地 , 而GPU服务器依然是市场上的绝对主力 。
不只是芯片
【AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些】隐性“技能”越来越重要
测试结果显示 , 相较于首轮MLPerf训练测试中使用的基于V100 GPU的系统 , 如今的DGX A100系统能够以相同的吞吐率 , 实现高达4倍的性能提升 。 而得益于最新的软件优化 , 基于NVIDIA V100的DGX-1 系统也能够实现2倍的性能提升 。
大约一年半的时间 , 英伟达整个AI平台就取得了如此优异的成绩 。 这些既是硬件架构升级所带来的跃进 , 也是英伟达跨处理器、网络、软件和系统的AI平台的发展结果 。

AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些
本文插图

英伟达全栈创新带来的AI性能提升
特别是软件 , 正在为AI的战略发展铺平道路 。 所有的AI公司都将越来越认识到 , 软件的重要性 。 以GPU深度学习为代表的技术已经点燃了现代人工智能的热情 , 同时也带动了CUDA软件生态的繁荣和开发者数量的迅猛增长 。
应用框架也是这位GPU霸主的布局重点之一 , 包括:用于对话式AI的Jarvis、用于推荐系统的Merlin、面向汽车行业的NVIDIA DRIVE、面向医疗健康市场的Clara、面向机器人技术市场的Isaac , 以及面向零售/智能城市市场的Metropolis 。 这些应用框架简化了企业级AI的开发和部署 , 降低了GPU在各个领域的应用门槛 。
当然 , 大规模加速计算特别是超大规模集群的部署是一个庞大的系统工程 , 正如Paresh Kharya所说 , 存储、网络、软件等 , 都是重要因素 , 而这些系统的顺利运转 , 部分也得益于广泛的生态系统对于NVIDIA GPU和DGX的支持 。 在该轮MLPerf基准测试中 , 生态系统也交出了一份满意答卷 。 在提交结果的九家公司中 , 除英伟达还有六家公司提交了基于NVIDIA GPU的测试结果 , 其中包括三家云服务提供商(阿里云、谷歌云和腾讯云)和三家服务器制造商(戴尔、富士通和浪潮) 。
推荐系统、NLP、强化学习
深度学习继续驱动AI纵深发展
与上一版相比 , 最新的MLPerf基准测试包含两项新的测试(推荐系统、NLP) , 还有一项经过大幅修订的测试(强化学习) , 这些都覆盖了深度学习的最新进展 。 过去几年 , AI取得了巨大进展 , 从图象识别、图象分类到识别不同的物体等 , 甚至能够识别图象中的每一个像素 。 这背后 , 深度学习的驱动力量是巨大的 。

AI人工智能|AI最新趋势 | 我从MLPerf基准测试中读出这些
本文插图

图源 | Youtube
推荐系统是日益普及的一项AI任务 , 已经成为互联网的重要引擎 。 不论是电商平台还是社交媒体 , 如何将合适的内容、合适的产品在合适的时间推送给用户?推荐系统至关重要 。 而这背后的两大挑战:一是模型的复杂度 , 因为需要处理的数据量是海量的 , 为了提升推荐的相关度 , 必须要对所有参数来进行建模;二是需要做出实时的计算 , 最快提供推荐结果 。 这两大挑战无疑都指向了算力 , 需要以非常快的速度完成计算 。 而GPU有指令集优势、全可编程、并且是软件定义的 , 架构向前兼容 , 整个硬件架构可以随着软件不断更新 , 而且是在软件库就可以直接更新 。 阿里巴巴在去年“双十一”期间创造了380亿美元的销售纪录 , 其推荐系统使用了英伟达GPU , 使每秒查询量达到了CPU的100倍以上 。


推荐阅读