人工智能的80年进化编年史:从想象到现实( 七 )


ChatGPT可以主动承认错误 , 听取用户意见 , 并优化答案 。
ChatGPT可以质疑不正确的问题 , 可以承认自身对专业技术的不了解 。
ChatGPT的局限性:
一本正经胡说八道:ChatGPT有很强的"创造可信答案"的倾向 , 会给出有误导性的回答 。而且错误隐蔽在正确的信息之中 , 难以发现 。这和生成式AI的本性有关:AI倾向于生成一个看起来正确的内容 。
然而 , 和AI绘画输出有点小问题无伤大雅的性质完全不同 , 这也许是文字生成式AI在应用上的致命问题:
如无法确保输出的100%正确性 , 那么其实际应用价值将大打折扣 。
输出对问题措辞敏感:同一个问题 , 调整提问的方式 , 可能会得到不同的回答 。这意味着输出结果还不够稳定 。
缺少垂直领域知识:这倒是创业者们的好机会 。基于ChatGPT系统打造专属的垂直领域大模型吧 。
算力昂贵:千亿参数级别的模型 , 即使是跑模型应用(不是模型训练) , 也需要大量算力 。当然了 , 这是大厂商们云计算的好机会 。
2023年2月
OpenAI的CEOSam Altman这几天刚发了新文章 , 宣布OpenAI的使命是确保AGI造福全人类:
"长期来看 , 过渡到一个拥有超级智能的世界可能是人类历史上最重要 , 最有希望 , 最可怕的项目"

人工智能的80年进化编年史:从想象到现实

文章插图
列举一下Sam Altman在文中阐明的OpenAI三原则:
希望 AGI 能够赋予人类在宇宙中最大程度地繁荣发展的能力
希望 AGI 的好处、访问权和治理得到广泛和公平的分享 。
希望成功应对巨大风险 。在面对这些风险时 , 理论上似乎正确的事情在实践中往往比预期的更奇怪 。
作为前文的呼应 , 也列出时间线第一条的"阿西莫夫机器人三定律" , 相互参考 。
机器人不得伤害人类 , 或坐视人类受到伤害;
除非违背第一定律 , 否则机器人必须服从人类命令;
除非违背第一或第二定律 , 否则机器人必须保护自己 。
从80年前阿西莫夫的天才想象 , 到今天 , AI能力已真切影响着每一个普通人的生活 (甚至砸掉人的饭碗) 。
AGI的愿景仍在不远的前方 , 但一个AI的时代已经到来 。




推荐阅读