芯片■速度提升百倍,颠覆大数据处理的光子计算芯片来了?

AI对芯片的高算力以及大数据处理的需求 , 让冯诺依曼架构的电子芯片面临着巨大的挑战 。这也让量子计算、神经拟态计算、光子计算这些前沿技术受到了越来越广泛的关注 。其实 , 业界对这些技术的研究都已经有几十年的历史 , 但出于各种因素 , 至今都还未大规模应用 。
光子计算在三种前沿计算技术中关注度较低 , 不过情况正在改变 。准确率接近电子芯片 , 完成矩阵乘法所用时间可达到最先进电子芯片1/100以内的光子计算芯片 , 或将在不远的将来颠覆大数据处理等应用 。
芯片■速度提升百倍,颠覆大数据处理的光子计算芯片来了?
文章图片

文章图片

图片来自pikrepo
光子计算开始引发关注
光纤传输已经普及 , 但同样使用光子的计算近两年才开始受到关注 。曦智科技联合创始人兼CEO沈亦晨接受雷锋网专访时表示 , 用光做数据传输不是一件新鲜的事情 , 光纤通信已经成为了业界标准 。这反应出用光做数据传输无论是成本、能耗还是带宽都远优于电子 。
"我觉得光通信是实现光子计算的必经之路 , 从半导体的发展来看 , 也是先做通信再做计算 , 两者最大的不同在于集成度 。"沈亦晨表示 。
【芯片■速度提升百倍,颠覆大数据处理的光子计算芯片来了?】光通信的一个模块里可能涉及几十到上百个光学元器件 , 但光子计算一个芯片就需要成千上万个光学元器件 , 这就会带来体积、封装、控制等一系列的问题 。
所谓光子计算 , 可以理解为将大量光学器件有序组合起来 , 其作用类似半导体芯片中的晶体管 , 利用不同波长 , 相位和强度的光线组合 , 在复杂的反射镜、滤波器以及棱镜结构所组成的数组中进行信息处理 。
理论上 , 光子芯片规模可以做到很大 , 也可以做到很小 , 并且光的特性先天适合线性计算 , 包含高密度的并行计算 。在AI火热的当下 , 光子芯片运行矩阵乘法效果有机会比现有电子芯片效果好成百上千倍 , 吸引了学术界和产业界争相探索光子计算带来的机会 。
2015年 , IBM研究人员发表了针对光子计算的新实验性技术 , 把硅光子数组集成到与CPU相同的封装尺寸中 。
2016年 , 麻省理工学院的研究团队与合作研究者提出了使用光子代替电子为理论基础的计算芯片架构 。由于光和透镜的交互作用过程本身就是一种复杂的计算——傅立叶变换 , 利用这个原理 , 使用多光束干涉技术 , 可以让干涉结果反应想要的计算结果 。
2016年6月 , 麻省理工学院研究团队研发出针对深度学习的可编程纳米光子处理器在arXiv提出了一份论文 , 该论文的第一作者及通讯作者正是沈亦晨 。该论文最终在2017年发表在《自然-光子学》杂志上 。
一年后 , 英国牛津大学研究人员使用特殊的相变材料与集成光路 , 模拟人脑的神经突触作用 , 由此设计出的"光子突触"理论运行速度是人脑的千倍 。
"2017年发论文时的光子计算设备体积还比较大 , 主要是因为当时很多器件都是分离式的 , 直到2019年初 , 我们把所有与光相关的分立式器件都集成到一个芯片上 , 体积就缩小了很多 。"沈亦晨表示 。
芯片■速度提升百倍,颠覆大数据处理的光子计算芯片来了?
文章图片

文章图片

沈亦晨创立的曦智科技 , 正是当下让光子计算获得更多关注以及推动光子计算进步不可忽略的力量 。
业界首款光子计算芯片原型如何诞生?
前面已经提到 , 光子计算芯片进行矩阵乘法运算的效果比电子芯片好成百上千倍 , 因此光子芯片非常适合AI计算 。但首先需要解决的问题是 , 如何将体积庞大的光子计算设备变为更适合规模应用的光子计算芯片?


推荐阅读