[RAVV]近日致力于模仿人类五感的人工智能神经拟态芯片又有新突破( 二 )


如果神经元的组织方式决定了大脑的思考方式 , 那么实现神经拟态计算 , 首先需要构建一个模拟大脑神经元工作的计算芯片 。 宋继强说:“我们试图观察、学习和理解大脑的运行 , 并在计算机芯片上复制 。 ”
德国海德堡大学物理学家卡尔海因茨·迈耶是神经拟态学工程师们的领军人物 , 在他看来 , 人类大脑具有低功耗、容错及无需编程三大特点 , 虽然人类大脑功率只有20瓦特左右 , 并且时刻都在失去神经元 , 却不影响它对这个世界的运算、理解和应对 。 相比之下 , 试图模拟人脑的超级计算机却必须预设算法 , 动辄需要几百万瓦特的功率 , 失去一个晶体管就能破坏一个微处理器 。
宋继强说:“深度学习的功率越来越高 , 现在即便训练一个图像识别模型 , 都需要数千瓦特 , 能源消耗已成为大规模AI部署的障碍 。 ”
而拥有存储和计算一体结构的神经拟态芯片 , 节约了传统计算架构中处理单元和存储器间通信所消耗的时间和功耗 。
2017年 , 全球首款自主学习神经拟态芯片问世 , 包含13万个神经元和1.28亿个突触 , 使芯片向人脑进化成为可能 。
如果说深度学习是通过大量标注数据让机器学习解决某一问题 , 如AlphaGO没有学习象棋前 , 只会下围棋 , 神经拟态计算就是通过模拟人脑神经元工作机制 , 让人工智能不只局限于某一领域 。
在神经拟态芯片展示的学会的各种能力中 , 不仅包括实时识别手势、使用新型人造皮肤阅读盲文、还包括通过自主学习获得视觉地标确定方向及学习新气味 , 而上述每项功能只消耗数十毫瓦 。
有专家认为 , 这一突破为科学研究需要的可自主、互联的实时、动态数据处理新方法奠定了基础 , 扩展了蓬勃兴起的边缘计算应用前景 。
要商用还需通用计算架构
在深度学习、机器学习之后 , 神经拟态计算被认为是推动人工智能进入新阶段的重要手段 。 虽然量子计算也擅长大规模计算 , 在某些任务中 , 它的理论可扩展性甚至超过神经拟态系统 , 但相比神经拟态计算 , 量子计算离真正商用还有不小的距离 。
虽然看上去神经拟态芯片的商用比量子计算更近一步 , 部分研究机构已展示了很多神经拟态计算应用 , 但要大规模商用 , 还需要解决通用性不足的问题 。
“距离将产品推向市场 , 我们还要等待数年 。 ”英特尔神经拟态计算实验室主任迈克·戴维斯说 , 我们真正感兴趣的是找到一种像冯·诺依曼架构那样相对通用的新型计算架构 。 这才是真正扩展可应用通用计算产品组合的开始 。
研究机构Gartner预测 , 2025年 , 神经拟态芯片有望取代GPU , 成为先进人工智能部署的主要计算架构 。
宋继强不完全认同这种说法:“机器学习在很多领域依然是目前最好的训练、学习手段之一 。 只有将多种技术灵活的运用到人工智能领域 , 它才能真正成为惠及民生的产业 。 ”
宋继强强调 , PohoikiSprings等神经拟态系统仍处于研究阶段 , 设计目的并非取代传统的计算系统 , 而是为研究人员提供工具来开发和描绘新的算法 。
*内容及图片来源于科技日报 , 侵权请联系小编 。


推荐阅读