人工智能的80年进化编年史:从想象到现实

AGI是Artificial General Intelligence的缩写 , 即通用人工智能 。
AGI的目标是实现人类般的通用智能 , 这意味着AI可以像人类一样理解任意通用任务, 并以人类的智力水平执行完成 。
基本上, 除了"自我意识"的生成 , AGI就是人类对人工智能的终极梦想了 。
无论是近一年来火爆的AI绘画 , 还是当红炸子鸡ChatGPT , AI研究应用的终极目标, 都是向着AGI通用人工智能的大一统目标在迈进 。
读者是否有同感, 这几年各种AI大模型的发展和突破, 着实有让人眼花缭乱之感?
本文主要把现代到当下一些AI的重要节点做了时间线梳理和简单分析 , 或有助于大家来理清楚这些年AI发展的关键脉络 。
1942年
时间回到80年前, 科幻泰斗阿西莫夫提出了著名的"机器人三定律”:
机器人不得伤害人类 , 或坐视人类受到伤害;
除非违背第一定律 , 否则机器人必须服从人类命令;
除非违背第一或第二定律 , 否则机器人必须保护自己 。
这三个定律是人工智能和机器人技术的哲学基础 , 是对如何设计人工智能系统的基本原则的阐述 , 至今都有着重要的参考意义 。
1950年
计算机科学之父艾伦·图灵(Alan Turing)发表了具有里程碑意义的论文《Computing machinery and Intelligence(计算机器与智能)》 。论文预言了创造出具有真正智能的机器的可能性 , 第一次提出图灵测试(The Turing test)的概念:
如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份 , 那么称这台机器具有智能 。
1956年
AI概念诞生 。
美国的达特茅斯学院举行了一次具有传奇色彩的学术会议(Dartmouth Conference) ,  探讨用机器模拟人类智能的问题 。计算机专家约翰·麦卡锡提出了AI"人工智能”一词 。这被广泛认为是人工智能正式诞生的日子 。参与会议的学者们是最早的AI研究先驱 。
从1956年到现代 , 这几十年来AI研究的起伏 , 有兴趣的读者可以参考本号另一篇文章从爆火的chatGPT讲起: 自然语言生成式AI的前世今生, 你想了解的一切>
当今大众关于AI的记忆 , 或许是从1997年开始的:
1997年
5月11日, IBM公司的电脑"深蓝”战胜了国际象棋世界冠军卡斯帕罗夫 , 成为首个击败国际象棋世界冠军的AI系统 。
1998年
现代卷积神经网络CNN诞生 。
1980年 , 日本学者福岛邦彦(Kunihiko Fukushima)模仿生物的视觉皮层(visual cortex) , 设计了人工神经网络"neocognitron” , 这是现代卷积神经网络的雏形 。
经过多年前赴后继的研究 , 1998年杨立昆(Yann LeCun , 现任Meta首席人工智能科学家)基于前人基础 , 构建了更加完备的卷积神经网络L.NET-5 , 在手写数字的识别问题中取得了成功 。LeNet-5被认为是现代卷积神经网络的基本结构 。
卷积神经网络CNN是当今"深度学习"AI模型的计算基础架构 。一直到2017年Transformer架构横空出世后 , CNN才被取代 。
2003年
Yoshua Bengio在2003年发表了《A Neural Probabilistic Language Model》 , 这是第一篇基于人工神经网络打造自然语言模型的论文 , 提出了具有奠基意义的NNLM"神经网络语言模型" 。它在得到语言模型的同时也产生了副产品"词向量" 。
2006年
杰弗里·辛顿(Geoffrey Hinton)在science期刊上发表了重要的论文《Reducing the dimensionality of data with neural networks》 , 提出深度信念网络(Deep Belief Networks , DBNs) , "深度学习"正式诞生 。
2009年
李飞飞主导的Image Net正式发布 , 有超过1000万数据 , 两万多个类别 。为全世界的AI学者提供了开放的标注图像大数据集 。
2010年开始 , Image Net大规模视觉识别挑战赛(ILSVCR)开始举办 , 全世界图像领域深度学习的专家们同台竞技和交流 , 从此拉开了计算机视觉的新篇章 。
2012年
google的吴恩达和Jef Dean使用1.6万个CPU(那时的GPU生态还在婴幼儿阶段)训练了一个当时世界上最大的人工神经网络 , 用来教AI绘制猫脸图片 。训练数据是来自YouTube的1000万个猫脸图片 , 1.6万个CPU整整训练了3天 。


推荐阅读