「算法」AI芯片和传统芯片到底有何区别?( 三 )


谷歌的TPU , 寒武纪的DianNao , 这些AI芯片刚出道的时候 , 就是用CPU/GPU来对比的 。
看看 , 谷歌TPU论文的摘要直接对比了TPU1与CPU/GPU的性能比较结果 , 见红色框:
「算法」AI芯片和传统芯片到底有何区别?
文章图片

文章图片

这就是摘要中介绍的TPU1与CPU/GPU的性能对比 。再来看看寒武纪DianNao的paper , 摘要中直接就是DianNao与CPU的性能的比较 , 见红色框:
「算法」AI芯片和传统芯片到底有何区别?
文章图片

文章图片

回顾一下历史
上个世纪出现神经网络的时候 , 那一定是用CPU计算的 。
比特币刚出来 , 那也是用CPU在挖 。目前已经进化成ASIC矿机了 。比特大陆了解一下 。
从2006年开始开启的深度学习热潮 , CPU与GPU都能计算 , 发现GPU速度更快 , 但是贵啊 , 更多用的是CPU , 而且 , 那时候GPU的CUDA可还不怎么样 , 后来 , 随着NN模型越来越大 , GPU的优势越来越明显 , CUDA也越来越6 , 目前就成了GPU的专场 。
寒武纪2014年的DianNao(NPU)比CPU快 , 而且更加节能 。ASIC的优势很明显啊 。这也是为啥要开发ASIC的理由 。
至于说很多公司的方案是可编程的 , 也就是大多数与FPGA配合 。你说的是商汤、深鉴么?的确 , 他们发表的论文 , 就是基于FPGA的 。
这些创业公司 , 他们更多研究的是算法 , 至于芯片 , 还不是重点 , 另外 , 他们暂时还没有那个精力与实力 。FPGA非常灵活 , 成本不高 , 可以很快实现架构设计原型 , 所以他们自然会选择基于FPGA的方案 。不过 , 最近他们都大力融资 , 官网也在招聘芯片设计岗位 , 所以 , 应该也在涉足ASIC研发了 。
如果以FPGA为代表的可编程方案真的有巨大的商业价值 , 那他们何必砸钱去做ASIC?
说了这么多 , 我也是半路出家的 , 因为工作需要而学习的 。按照我目前的理解 , 看TPU1的专利及论文 , 一步一步推导出内部的设计方法 , 理解了TPU1 , 大概就知道了所谓的AI处理器的大部分 。
然后研究研究寒武纪的一系列论文 , 有好几种不同的架构用于不同的情况 , 有兴趣可以研究一下 。然后就是另外几个独角兽 , 比如商汤、深鉴科技等 , 他们每年都会有论文发表 , 没事去看看 。这些论文 , 大概就代表了当前最先进的AI芯片的架构设计了 。
当然 , 最先进 , 别人肯定不会公开 , 比如谷歌就不曾公开关于TPU2和TPU3的相关专利 , 反正我没查到 。不过 , 没事 , 目前的文献已经代表了最近几年最先进的进展了 。


推荐阅读