大脑如何储存长期记忆、检索回忆、做决策?这些大脑的运行机制值得AI学习


大脑如何储存长期记忆、检索回忆、做决策?这些大脑的运行机制值得AI学习

文章插图
图片来源@视觉中国
文 | 追问NextQuestion
大脑是宇宙中已知的,也可能是唯一的“智能机器” 。
在行为学层面,人与动物的大脑能执行精细的、高水平的认知任务,包括灵活学习、长时程记忆、开放式环境决策等 。在结构层面,认知与计算神经科学揭示了大脑通过极其复杂而精细的网络实现其功能 。北京大学心理与认知科学学院吴思教授与清华大学社会科学院心理学系的刘嘉教授等人在今年1月发表的“AI of Brain and Cognitive Sciences: From the Perspective of First Principles”一文中提到,随着人类对大脑的结构与功能的认识不断深化,大脑的基本原理为改进人工智能提供了最重要的参考 。这些基本原理指大脑提取、表征、处理、检索信息的规则,它们指引着大脑的运行,是大脑执行其他更高级认知功能的基础 。
论文作者们将大脑的基本原理概括为:吸引子网络、临界性、随机网络、稀疏编码、关系记忆、感知学习 。解读这些原理,并将其灵活用于人工智能,可能是使人工智能更“像”人类智能,并在性能上获得进一步提升的关键 。
【大脑如何储存长期记忆、检索回忆、做决策?这些大脑的运行机制值得AI学习】本次追问邀请了四位认知神经科学领域的青年学者基于这篇重要论文对“人工智能如何向人类智能学习?”的话题进行了解读 。本次解读将分上中下三篇,从以上六个方面与您一起揭秘大脑的基本原理 。
大脑如何储存长期记忆、检索回忆、做决策?这些大脑的运行机制值得AI学习

文章插图
?图 1:论文封面
吸引子动力学:神经信息处理的规范模型
大脑由大量神经元组成,神经元之间通过突触形成各种网络 。单个神经元的计算相当简单,而神经网络的动态变化才是完成大脑功能的关键 。简单地说,神经网络接收来自外部世界和其他脑区的输入,其状态不断变化,从而进行信息处理 。因此,动态系统理论是量化大脑如何通过网络进行计算的重要数学工具 。
在动力学系统中,不同的状态演化规则和多样的外部输入可以产生各种动态学现象 。在一个神经网络里,如果一个状态向量(state vector)的所有邻近状态都汇聚于它,那么这个状态向量就被称为稳定吸引子(stable attractor) 。拥有稳定吸引子的网络被称为吸引子网络(attractor.NETwork),它们构成了大脑信息表征、处理和检索的基本构建模块 。具有稳定状态的吸引子网络可分为两种类型,即离散吸引子网络(discrete attractor network)和连续吸引子网络(continuous attractor network) 。在神经网络中,吸引子对应网络的能量空间中的局部最小值,所有邻近状态的能量都高于它,所以会被“吸引”到这里(图1) 。
大脑如何储存长期记忆、检索回忆、做决策?这些大脑的运行机制值得AI学习

文章插图
?图 1:离散吸引子网络和连续吸引子网络示意图 。图源:参考文献1
在离散吸引子网络中,每个吸引子都有自己的吸引区域 。如果以随机状态开始,网络的动态性会驱动随机状态向其邻近吸引子状态变化,这个过程也伴随着网络的能量降低 。离散吸引子的这种特性使得网络能够纠正输入噪声并检索记忆表征 。现在,离散吸引子网络经常用于模拟工作记忆、长期记忆和决策等 。
与离散吸引子网络不同,在连续吸引子神经网络(continuous attractor neural networks,CANN)中,吸引子在状态空间中连续分布,形成一个平滑的流形 。这个特性使得CANN中的吸引子状态能够迅速转变 。它为CANN带来了许多潜在的利用价值,如路径积分、证据累积、预测性跟踪等 。
已经有很多实验研究证明大脑中存在吸引子动力学,并且吸引子网络常被用于描述一些高级认知功能的潜在机制,这有赖于其在信息表征中的基本特性 。
  • 特征一:吸引子网络稳健的信息表征2
在离散吸引子网络中,记忆信息被存储为一个吸引子状态 。在给定部分或有噪声线索的情况下,网络会动态演化到一个吸引子状态,并且相应的记忆会被检索出来 。不同的吸引子对应于不同的局部能量最小值,并且有着各自的吸引域 。如果噪声扰动不足以将网络状态推出吸引域,那么吸引子状态就是稳定的,所以记忆信息被稳健地编码 。
与离散吸引子网络不同,在连续吸引子网络中,吸引子在网络状态空间中形成一个平坦的流形,并且它们对噪声有部分的稳健性 。如果噪声扰动与流形正交,网络状态在吸引子动力学作用下是稳定的 。然而,如果噪声扰动沿着流形方向,网络状态将在吸引子流形上扩散,从一个吸引子移动到附近的吸引子 。


推荐阅读