Chat GPT替代的是不会使用AI的人


Chat GPT替代的是不会使用AI的人

文章插图
ChatGPT能帮忙做副业、写论文,但为何还是取代不了人类?
来源:真故研究室
撰文 | 林秋艺
编辑 | 龚   正
ChatGPT已经在科技圈火热一月有余,但仍有很多大众关心,ChatGPT于个人的职业、学业有何价值、自己该如何与ChatGPT时代相处 。
也有很多人脑洞大开提问,ChatGPT能帮自己做副业吗?能成为自己的良师益友、解决自己的精神内耗吗?另外也有瞧不上ChatGPT的声音 。前一阵,ChatGPT连小学数学题都算不对的新闻也传播了一番 。一些家长形成了先行印象,认为这哪里算得上AI 。
对此,我们对话了中国计算机学会科学普及工作委员会主任助理崔原豪博士 。他也是电影《流浪地球2》中人工智能领域科学顾问 。请他分享了ChatGPT的诸多硬核洞察 。
Chat GPT替代的是不会使用AI的人

文章插图
崔原豪的核心观点如下:
1、AI替代的不是人类,而是不会使用AI的人类 。关注ChatGPT的原因在于,我们应该了解将来如何使用ChatGPT相关的AI产品去提升自己的工作效率,这是未来工作中的最优选择 。当世界在进步时,一成不变就将形成数字鸿沟,从而影响自身发展 。
2、机器在计算能力上会高于人类,但机器智能始终无法如人类智能一样思考 。迄今为止,还没有发现AI有超越人类智能或者企图反叛人类的苗头 。评价机器是否智能只有通过图灵测试,但真正完备的图灵测试无法实现 。
3、ChatGPT目前还无法分辨信息的真实性 。下一步,需要在数据层面集中增加更多关于世界常识的标注数据;在它原有的记忆上更新,因为随着时间的进程,某些事实和知识都会发生变化,它需要不断更新 。
Chat GPT替代的是不会使用AI的人

文章插图
以下为对话实录:
Q1:您第一次接触ChatGPT是什么时候?使用体验如何?
A1:大概是在2个月前,第一次使用了ChatGPT 。当时用它做了一篇英文论文的润色,让ChatGPT帮我推敲其中的语法,结果超乎我想象的好 。
我告诉它:你现在是一个英语翻译家,我希望你把我说的话翻译成优雅且简练的英语句子,不要作过多解释,也不要改变它的原意 。
这里每一个“要”或“不要”都是一个指示 。在这几条指示的要求下,它就会把你输入的一段英语文本变得更加优美简洁 。
这比以前用的Grammarly(英语语法检测)润色出来的效果好很多 。专业性上,ChatGPT会做很多专业术语的替换,这是之前的语法检测工具很少能做到的;文法方面,被它替换后的词汇和语法相较之前会更优雅一些 。
Q2:现在对ChatGPT的复用率如何?
A2:最近更多的是用它来做论文润色、英语翻译或其他语言翻译,有时候也会逗它玩一会儿 。
它的使用过程还是挺有趣的,像是工作助手,大幅度地减少了我的工作时间,提高了效率 。
Q3:请教一个根源性的问题,在人工智能中,大语言模型扮演着怎样的角色?
A3:要了解大模型的角色,我们首先要了解机器如何评价一段文本的好坏 。
举个例子,《流浪地球2》里有一句经典台词“我相信人类的勇气,可以跨越时间,跨越每一个历史、当下和未来 。”
假如我把句子顺序调整一下,“我相信勇气的人类,可以跨越时间、当下、未来,跨越每一个历史 。”大家会觉得有一点奇怪,但还是能听出来我说的是什么意思 。
但当我把它整体打乱,变成“人类勇气未来,时间当下跨越每一个,可以我相信的历史”,你就会觉得无法理解 。
我们会觉得第一个句子非常合理,最后一个不合理的原因是,在我们人类所有的语言里,最后一个句子出现的概率非常低 。
从统计角度来看,在“人类语言模型”里,第一句话发生的概率最大,第二句话次之,第三句话几乎不可能发生 。这就是文本合理性的量化 。
机器就是在它的训练集中,获得文本合理性的量化指标 。如果训练集足够泛化到含括所有的语言模型,那么机器就有资格评价这段文本是不是符合人类语法 。
当你让它生成一段新的文本时,它会按照人类最常用、最喜欢的方式生成,从语法结构上来看,你会觉得它说得很有道理,但事实层面却不一定对 。
也就是说,语言模型本身就是自然语言处理的一个领域基石 。
语言模型的好坏,决定了整个下游任务处理的好坏,因为是它在评价语言是不是合理 。如果刚开始评价指标就错了,那么后边的所有东西都会变成错的 。所以语言模型是根本 。


推荐阅读