忘川彼岸|人工智能哲学科普:你不知道的人机大战、大数据、深度学习与哲学( 二 )


符号主义AI背后的哲学预设符号主义AI的拥趸把我们日常学习和思考的机制拆解为两个部分:一是对世界建立形式化的描述 , 二是把这种表述转变成可由规则支配的形式 。 如果接受了这种看待人类认知事物和解决问题的视角 , 即为接受了它背后笛卡尔式的四个哲学预设 。
(1)智能的实质是抽象的思维(此处的思维指的是类似于理性的推断和计划)
(2)思维过程的理想模式是逻辑推理:按照明确的、可阐释的规则来操作离散的概念 。
(3)思维超越于感知之上 。 最困难的部分是破解抽象思维 , 一旦我们拥有它 , 像知觉这样的活动就会随之而来 。
(4)世界由离散的、具有明确定义的属性的物体组成 , 这些物体与与其他物体有着毫不含混的边界 。
由此不难看出为什么人工智能的成果最早在棋类游戏中显露出来 。 1997年 , IBM研发的计算机程序深蓝以2胜1负3平的成绩在象棋比赛中取得了胜利 , 并在决定胜负的第六个回合中 , 只用了22步迫使它的对手棋王卡斯帕罗夫投子认负 。 西蒙和纽维尔(1975年图灵奖获得者)甚至断言:“如果一个人能设计出一个成功的下棋计算程序 , 那么他就洞穿了人类智慧的实质 。 ”
一个国际象棋的棋盘是64宫格 , 每个棋子在棋盘上有固定的初始坐标;有明确的移动规则;对局的唯一目标是把对方的王将死 。 这是一个完美的形式化范例:如果把每个棋子表示为一个符号 , 自棋局开始到结束每个符号的移动都可以用代数的形式在有限的步数内表示出来 , 也就是说人脑在决策每一步时也运用了这种可形式化的抽象思维 。 在符号主义AI的视角看来 , 从认识论上说人类的智能可抽象为对符号的机械运作 , 是一种只运用逻辑推理的理想状态 。 笛卡尔作为理性主义的先驱 , 正是认为人的理性是知识的来源 , 人的心智活动由基本的推理原则所驱动 。
进一步说 , 如果认为人可以通过形式化的过程获取和处理离散的知识(符号) , 那么实际上也预设了这个世界可以被预先包装成一组清晰明确的对象 , 这些对象能用符号整齐地定义 , 并用逻辑的形式规则对它们进行操作 。 这种认识论要求了世界上所有的东西都是可概念化的、被精确描述的 , 而真实的世界显然不是这样的 , 这也就意味着按照符号主义AI的思路永远也不可能制造出真正的人工智能 。
举个例子:在练习网球挥拍的时候 , 我们不断地重复同一个动作记住击打网球的感觉 。 如果教练告诉你以每秒X米的速度呈X度角挥拍 , 那么对练习的效果帮助极其有限 。 我们的思想和判断虽然立足于世界 , 但我们并没有被框定在任何类似于一套可明确表达的概念中 。 毫无疑问 , 知识也以感知的形式储存在我们的大脑中 , 这部分知识所对应的世界是模糊的、无边界的、难以定义的 。
第二次发展热潮:连接主义和深度学习严格来讲 , 连接主义的技术热潮兴起于80年代 , 而深度学习和我们熟知的大数据是2011年往后至今勃发的应用趋势 。 机器的图像识别、语音识别与翻译、自然语言处理 , 都是深度学习的代表产物 。 但这两种技术的根本思路都是用数学模型模仿人脑的神经元网络 , 故而也可以粗略地并作一股热潮与符号主义AI的技术路径进行对比 。
如果说符号主义AI可以完美地处理概念化和可形式化的内容 , 这种技术路径在自主学习和处理感知类别的信息更加擅长 。 在第二波人工智能中 , 符号表征不是被预先设定好的 , 是从给定的数据集中学习的 , 使用的是一组跨功能层的、相互连接的大规模并行处理单元 。
通俗地解释 , 人处理信息的过程是先输入大量的信息 , 然后这些信息在大脑内部的神经元之间互相传递 , 最后输出一个结论 , 即为我们学习的成果 。 大数据的基本思路也相同:先是给机器输入大量筛选出来的内容和信息(监督训练) , 再让机器在不同的处理层之内反馈优化(无监督训练) , 最后得到训练的结果 。 比如谷歌的OpenAI实验室发布的GPT-2语言模型可以用来智能地续写文本 , 该模型拥有800万个网络页面和40GB的高质量语料的训练量 , 在大规模的无监督训练后再在小得多的有监督数据集上为具体任务进行精细调节 , 从而得到较好的文章生成效果 。
深度学习背后的哲学预设在符号主义AI如日中天的时候 , 著名的哲学家德雷福斯曾经借助海德格尔的理论预言了它的必然失败 。 海德格尔的学说强调一种“抛入”——一种人和这个世界交互的重要方式 。 我们最重要的特点并不是如笛卡尔所说的那样 , 是能够坐下来理性地、逻辑地思考世界上的任何实体或情况 。 最重要的是我们有能力参与到世界中去 , 并去发展在这些世界中行动的技能 。 这些技能从根本上说不是智力技能 , 而是实践技能 。 德雷福斯采纳了这一观点 , 先见性地提出既然人类的认知不是一个仅仅由一套形式化的规则所操作的系统 , 那么就一定有另一种不依靠纯逻辑的方式来处理现实世界的知识 。 好比熟能生巧、一些瞬发的灵感 , 人的智慧和知识也依赖于无意识的过程而非有意识的形式系统 , 以隐性知识而非显性知识的形式存在 。 这些技能是无法在概念化的规则之中被获取 , 形式化的语言只能表征明确的命题 , 却无法表述这部分内容 , 也不贴合人类智能的运作方式 。
第二次人工智能热潮显然吸取了这个教训 , 抛却了形式化知识的过程和野心 , 转而把精力投向数据的大量收集和机器的自主学习上 。 这种技术路径对应的本体论认为 , 我们所存在的世界是一个具有不可思议的丰富性的世界 。 多伦多大学的人工智能哲学教授BrainCantwellSmith在他的著作中写到:“我们所熟悉的用对象、属性和关系组成的本体论世界、用可明确表达的概念表征来表示的世界(即像在符号主义AI中一样) , 很可能是'世界'在一个相对较高的抽象水平上采取的 , 而不是以世界本来的方式存在" 。 换句话说 , 世界的细节远比符号主义AI中的离散表征所显示出来的丰富 , 而机器学习能够触及、追踪这些细节的相关性 , 并对世界的细节进行预测 , 而这些细节在还原成第一波人工智能的符号结构时不可避免地会丢失 。
打个比方 , 我们想要制作一个系统来识别出所有含有猫咪的图片 。 按照符号主义AI的思路 , 人类首先需要提供给机器一些明确的定义:四只腿、带有灰色、黑色者混合的毛发、面部有胡须等等;机器学习能够追踪图像中与猫咪图片统计相关的细微细节 , 比如身体形状、常见姿势、典型表情等等 。 使用第一种图像识别技术很可能成功率并不高 , 因为一只截了肢的瘸腿猫咪和一只被染了荧光绿色的猫咪仍然是猫咪 , 而在第一套系统里却很显然不符合猫的“标准“ 。 第二套系统的灵活程度更高 , 因为它们可以应对不同的关于猫的细节 , 将猫的图像放在一个概率连续体上识别它 , 而不是预先设置好了猫的特点 , 再根据这些特点去定义一只猫 。
关于人工智能哲学还有很多有意思的命题 , 由于篇幅所限暂且写到这里 。 有趣的是 , 尽管深度学习和大数据已经成为现在人工智能发展的主流 , 但它依然不能很出色地解决符号主义AI能够解决的问题 。 符号主义AI的思路在今天也有相应的应用 , 和深度学习并不是互斥的关系 。 人工智能哲学的启示是:世界的细节固然是模糊不清的 , 但也存在离散的、边界清晰可以界定的事物;人毫无疑问是一种智性动物 , 但绝不仅是一种智性动物 。


推荐阅读