ChatGPT可以主动承认错误 , 听取用户意见 , 并优化答案 。
ChatGPT可以质疑不正确的问题 , 可以承认自身对专业技术的不了解 。
ChatGPT的局限性:
一本正经胡说八道:ChatGPT有很强的"创造可信答案"的倾向 , 会给出有误导性的回答 。而且错误隐蔽在正确的信息之中 , 难以发现 。这和生成式AI的本性有关:AI倾向于生成一个看起来正确的内容 。
然而 , 和AI绘画输出有点小问题无伤大雅的性质完全不同 , 这也许是文字生成式AI在应用上的致命问题:
如无法确保输出的100%正确性 , 那么其实际应用价值将大打折扣 。
输出对问题措辞敏感:同一个问题 , 调整提问的方式 , 可能会得到不同的回答 。这意味着输出结果还不够稳定 。
缺少垂直领域知识:这倒是创业者们的好机会 。基于ChatGPT系统打造专属的垂直领域大模型吧 。
算力昂贵:千亿参数级别的模型 , 即使是跑模型应用(不是模型训练) , 也需要大量算力 。当然了 , 这是大厂商们云计算的好机会 。
2023年2月
OpenAI的CEOSam Altman这几天刚发了新文章 , 宣布OpenAI的使命是确保AGI造福全人类:
"长期来看 , 过渡到一个拥有超级智能的世界可能是人类历史上最重要 , 最有希望 , 最可怕的项目"
文章插图
列举一下Sam Altman在文中阐明的OpenAI三原则:
希望 AGI 能够赋予人类在宇宙中最大程度地繁荣发展的能力
希望 AGI 的好处、访问权和治理得到广泛和公平的分享 。
希望成功应对巨大风险 。在面对这些风险时 , 理论上似乎正确的事情在实践中往往比预期的更奇怪 。
作为前文的呼应 , 也列出时间线第一条的"阿西莫夫机器人三定律" , 相互参考 。
机器人不得伤害人类 , 或坐视人类受到伤害;
除非违背第一定律 , 否则机器人必须服从人类命令;
除非违背第一或第二定律 , 否则机器人必须保护自己 。
从80年前阿西莫夫的天才想象 , 到今天 , AI能力已真切影响着每一个普通人的生活 (甚至砸掉人的饭碗) 。
AGI的愿景仍在不远的前方 , 但一个AI的时代已经到来 。
推荐阅读
- Java 中为什么要设计 throws 关键词,是故意的还是不小心
- 什么是网络数据库?
- 什么是企业ssl证书?安装企业ssl证书的好处
- 陈道明|内娱里最大的笑话,就是陈道明艺德不行!
- 高贵妃被谁害的 高贵妃怎么死的
- 为什么 HR 不喜欢职场空窗期?
- 为什么很多的离职原因都写的是“个人原因”?
- 植物人醒后画出的死后世界,是哪个画家 嫁给男主的植物人哥
- 十年树人十年树木百年树人出自谁的名言、十年树人的意思?
- 斜庞克纹理烫短发 男生耳朵上短的刘海发型叫什么?