NVIDIA|NVIDIA已经变了:不再靠你买显卡充值信仰( 二 )


比如,广告位展示、流媒体、电商平台推荐引擎系统、智能语音现在均已采用 GPU 驱动 。再如,相同时间周期内芯片性能提高的难易程度不同 。2017 年,英伟达推出基于新架构 Volta 的 Tesla V100 芯片,是上一代基于 Pascal 架构的 Tesla P100 训练速度的 12 倍 。英伟达在三年之内将 AI 性能提高了 60多倍,而相同时间内,CPU 只能提高一倍 。
难怪,黄仁勋自 2017 年以来,多次公开宣布摩尔定律已失效 。
在云巨头方面,无论是 AWS Inferentia、谷歌 TPU、阿里巴巴含光 800 均属于 ASIC 芯片,侧重 AI 推理 。云巨头自研云端 AI 芯片背后的逻辑有两点,一方面,降低购置芯片的成本,更好服务于自身业务,另一方面,逐步减少对英伟达、英特尔芯片的依赖,提高自己对云生态系统的掌控能力 。
一般来说,ASIC 只针对单一场景,速度很快,GPU 的性能以面积和功耗为代价,理论上 ASIC 性能优于 GPU 。但 ASIC 研发较慢,有时候赶不上深度学习的发展速度 。在价格方面甚至更昂贵,谷歌官网显示,使用 TPU 价格为 8 美元/时,英伟达芯片则为 2.48 美元/小时 。
「AI 训练芯片的研发难度更高,目前还是 GPU 占据了很大的优势 。主要是英伟达围绕自己的 GPU 已经构建了丰富的软件生态 。其他 ASIC 或 FPGA 在硬件指标上可能占据优势,但在生态上比英伟达还落后很多,这也是为什么英伟达一家独大的原因 。 」芯谋研究徐可告诉极客公园 。
NVIDIA|NVIDIA已经变了:不再靠你买显卡充值信仰
文章图片
芯片行业的「苹果公司」
黄仁勋曾说过,英伟达是一家 AI 公司,更强调英伟达是一家软件公司,和苹果类似,通过售卖硬件盈利的软件公司 。
2006 年,英伟达面向开发者推出 CUDA 通用并行计算平台,通过 CUDA 平台,开发者可以使用 C 或 C++语言编程,来加速计算应用程序,极大地简化了软件开发过程 。英伟达投入大量资金构筑 CUDA 生态,通过开设课程、培训,吸引开发者,渗透至各个关键行业用户,这是竞争对手 AMD 所不具备的能力 。
近三四年,英伟达开发者数量增长迅猛,仅 2019 年一年,CUDA 平台的下载量就超过了 500 万次 。不仅如此,在 CUDA 平台之上,英伟达还提供 CUDA-X 软件加速库集合,其中,CUDA-X AI 囊括了加速深度学习的 cuDNN、加速机器学习算法的 cuML、优化训练模型以进行推理的 TensorRT 等 15 个库,此外,英伟达还推出 RAPIDS 开源软件平台,加速企业数据分析、机器学习 。
去年年底,黄仁勋在接受 GamesBeat 采访时谈到,英伟达基于 GPU 芯片构建出了非常复杂的软件堆栈,而软件堆栈是竞争对手不具备的「赛道」 。
可见,CUDA 平台在内的软件能力,已经成为英伟达的「护城河」 。比如,2017 年,英伟达推出面向 AI 训练和高性能计算的 Tesla V100 芯片后,长达两年多的时间里,没有新的后续产品推出 。软件成为提高 AI 性能的关键,ResNet-50 神经网络在软件的帮助下,AI 训练能力提高了 100% 。
在 GPU 硬件方面,英伟达也在巩固、增强固有优势 。2019 年,英伟达收购 Mellanox,弥补了英伟达在数据中心低延迟互连及网络方面的欠缺,显著增强 NVLink(GPU 与 GPU 互联)和 NVSwitch(整合多个 NVLink)互联的速度与可扩展性 。
2016 年,英伟达面向 AI 创业公司,推出初创加速计划,帮助 AI 创业公司加速孵化、商业落地 。巨头竞争的本质是生态上的竞争 。
「生态和软件非常关键 。AI 芯片只是底层的工具,AI 开发者对 AI 芯片相关生态和软件的选择,决定了芯片的前途 。」徐可说 。
在经历游戏显卡业务想象力登顶,比特币挖矿机行业「过山车」式的起伏后,英伟达正凭借数据中心业务进阶 B 端 。现在看来,英伟达押宝数据中心前景与钱景巨大,数据中心业务与英伟达强大的软件、生态能力产生的化学反应,正驱动英伟达在芯片市场讲出一个新的增长故事 。


推荐阅读