第一财经@行业观察:世界人工智能发展究竟到了什么水平?第一财经2020-07-20 07:45:070阅( 二 )


为了避免此类误解 , 笔者比较赞成将“深度学习”称为“深层学习” 。 因为该词的英文原文“deeplearning”技术的真正含义 , 就是将传统的人工神经元网络进行技术升级 , 即增加其隐藏单元层的数量 。 这样做的好处 , 是能够增大整个系统的信息处理机制的细腻度 , 使得更多的对象特征能够在更多的中间层中得到安顿 。
第一财经@行业观察:世界人工智能发展究竟到了什么水平?第一财经2020-07-20 07:45:070阅
文章图片
图2/2比如 , 在人脸识别的深度学习系统中 , 更多的中间层次能够更为细腻地处理初级像素、色块边缘、线条组合、五官轮廓等处在不同抽象层面上的特征 。 这样的细腻化处理方式当然能够提高整个系统的识别能力 。
但需要看到 , 由此类“深度”化要求所带来的整个系统的数学复杂性与数据的多样性 , 自然会对计算机硬件以及训练用的数据量提出很高的要求 。 这也就解释了为何深度学习技术在21世纪后才逐渐流行 , 正是最近十几年以来计算机领域内突飞猛进的硬件发展 , 以及互联网普及所带来的巨大数据量 , 才为深度学习技术的落地开花提供了基本保障 。
但有两个瓶颈阻碍了神经元网络-深度学习技术进一步“智能化”:
第一 , 一旦系统经过训练而变得收敛了 , 那么系统的学习能力就下降了 , 也就是说 , 系统无法根据新的输入调整权重 。 这可不是我们的终极理想 。 我们的理想是:假定由于训练样本库自身的局限性 , 网络过早地收敛了 , 那么面对新样本时 , 它依然能够自主地修订原来形成的输入-输出映射关系 , 并使得这种修订能够兼顾旧有的历史和新出现的数据 。 但现有技术无法支持这个看似宏大的技术设想 。 设计者目前所能够做的 , 就是把系统的历史知识归零 , 把新的样本纳入样本库 , 然后从头开始训练 。 在这里我们无疑又一次看到了让人不寒而栗的“西西弗斯循环” 。
第二 , 正如前面的例子所展现给我们的 , 在神经元网络-深度学习模式识别的过程中 , 设计者的很多心力都花费在对于原始样本的特征提取上 。 很显然 , 同样的原始样本会在不同的设计者那里具有不同的特征提取模式 , 而这又会导致不同的神经元网络-深度学习建模方向 。 对人类编程员来说 , 这正是体现自己创造性的好机会 , 但对于系统本身来说 , 这等于剥夺了它自身进行创造性活动的机会 。 试想:一个被如此设计出来的神经元网络-深度学习结构 , 能够自己观察原始样本 , 找到合适的特征提取模式 , 并设计出自己的拓扑学结构吗?看来很难 , 因为这似乎要求该结构背后有一个元结构 , 能够对该结构本身给出反思性的表征 。 关于这个元结构应当如何被程序化 , 我们目前依然是一团雾水——因为实现这个元结构功能的 , 正是我们人类自己 。 让人失望的是 , 尽管深度学习技术带有这些基本缺陷 , 但目前的主流人工智能界已经被“洗脑” , 认为深度学习技术就已经等于人工智能的全部 。 一种基于小数据 , 更加灵活、更为通用的人工智能技术 , 显然还需要人们投入更多的心力 。 从纯学术角度看 , 我们离这个目标还很远 。
(作者任职于复旦大学哲学学院)


推荐阅读