从ChatGPT看人工智能军事应用:会取代人类主宰战场吗( 二 )


这就是目前主流的神经网络算法,ChatGPT也同样如此 。不同之处在于,一般AI模型只有百万级训练数据和参数,而ChatGPT拥有3000亿单词的语料数据和1750亿个参数 。前者是“喂给”程序的训练数据,后者则基于训练数据提升ChatGPT这个模型对世界的理解 。这就是ChatGPT看起来“更聪明”的主要原因 。但ChatGPT只是“大力出奇迹”,其原理与过去的AI模型并没有本质区别 。
了解了AI的基本原理,我们会发现AI存在两个天然缺陷 。第一,AI本身并不理解“它自己在做什么” 。AI模型就是一堆神经网络的参数,这些参数没有任何具体意义 。AI只负责输出结果,并不能解释输入与输出之间的逻辑关系 。第二,AI的“行为”是由训练数据决定的 。训练AI的数据量越大,AI的能力就越强 。但数据再多,也只能代表“经验丰富”,一旦遇到意外情况,就会发生功能紊乱 。可以说,AI就是用大量数据“喂”出来的,它的表现完全取决于数据 。
因此,跟人类智能相比,AI既没有真正的理解能力,又过于依赖训练数据,以至于计算机科学家和哲学家朱迪亚·珀尔有一句名言:“数据是深度愚蠢的” 。
AI原理带来的战争启示尽管AI存在天然缺陷,但并不妨碍它成为优秀的“参谋”和助手 。截至目前,AI在军事领域的应用范围正在不断扩大,越来越多的AI作战应用正在或已经成为现实 。
如侦察感知领域,一些发达国家军队的超视距雷达,正在使用AI对各种类型的空中目标进行快速标记和个体识别,目前已经实现了对无人机等小型目标的自动探测与识别 。无人作战领域,美国国防部高级研究计划局正在实施一系列计划,致力于研究无人机、自主水面无人艇和水下潜航器以及陆基移动无人平台的组群使用,以实现相应的作战目的 。此外,AI技术还渗透到指挥控制、训练模拟、后勤保障等领域,并逐渐发挥出日益重要的作用 。
深入思考AI的特点原理和发展路径,会发现其中蕴含着一些关于战争的启示:
第一,技术深度决定战术高度 。毫无疑问,AI时代战术的“技术含量”将越来越高,而“战术高度”很大程度上将取决于对AI技术的认识深度 。2019年,比利时鲁汶大学的研究团队发明了一种可以骗过AI识别的彩色图形——只要把一张A4大小的特殊图形打印出来贴在身上,AI就不会把实验者当作“人” 。循着这个思路会发现,只要找到AI的数据识别漏洞,就能够利用数据的“愚蠢”,骗过对方的侦察感知功能,进而发展出相应的对抗战术 。但能否通过技术手段发现AI漏洞,是此类战术奏效与否的关键和前提 。换句话说,对AI技术的研究深度将在很大程度上决定战术能够发挥的高度 。
第二,打破常规是对抗AI的关键 。目前AI的所有能力都在人类的认知边界内 。如ChatGPT看似无所不知,但它能够提供的所有答案都是在人类已知的信息库中检索整合得出的 。即使跟过去“不一样”,ChatGPT也只是通过内容整合“重组已知”,而非在观点和思想层面“发现未知” 。或者说,AI的最大优势是“熟悉套路”和“优选方案”,劣势则是难以“打破常规”,更不能“无中生有” 。这意味着,AI并不能从已知推导出未知,创新将是人类的最大优势 。这进一步意味着,人类指挥员通过深度思考、逻辑推理进而打破常规、创新战法的能力无可取代,也必将是未来战场上应对“AI指挥员”的制胜利器 。
第三,主宰战场的依然是人类而非AI 。基于目前的计算机技术,AI发展存在天花板 。其理论依据是“哥德尔不完备定理” 。这一定理简单来说,就是“可数系统都是不完备的,其中某些问题永远无法在系统本身的层面得到解决” 。根据这一原理,基于当前计算机技术的AI,可能永远无法超越人类 。因为计算机系统本质是可数的,而人的意识是不可数的 。例如,计算机所有的输入和输出,都必须用有限的数字来描述 。比如圆周率 。计算机里没有真正的圆周率,小数点后只能输入一个有限位的近似小数,到一定长度必须停下来 。只要停下来,参与运算的这个圆周率就不是真正的π 。而真实世界与计算机模拟的数字世界是不同的 。真实世界是不可数的,圆周率π、自然常数e都可以无穷无尽地计算下去 。AI运行于数字世界,人类则生活在实数宇宙 。用基于目前计算机技术的AI来模拟人类智能,就像用语言系统来描述人类感觉——语言是可数的,而感觉是不可数的,所以有些感受“只可意会,不可言传” 。由此可推导出,在真正的技术“奇点”到来之前,AI只能不断逼近人类智能,但永远无法超越 。人类仍将是战场的最高主宰 。


推荐阅读