我们都差点被ChatGPT骗了,但这也许是好事儿( 二 )


它的第二组回应,更有意思了:

我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
图片来源: 硅星人
怎么说呢,有点缸中之脑的意思了 。
我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
图片来源:Steemit
| 不要高估 ChatGPT
几个来回之后,我对 ChatGPT 愈发刮目相看 。
通常来说,问题太短,太“不知所云”的话,ChatGPT 无法掌握我的意图,就会给出“抱歉我只是个AI助手我啥都不会”的标准回应;
另一边,如果你把“提示工程”这件事玩到极致了,写了一个巨长的问题,得到的答案也不再会高于你自己的期待值——毕竟如果它连如此清晰明确的提示都听不懂的话,也未免太低能了 。
但有的时候如果你给 ChatGPT 的问题,“抽象”程度恰到好处,又或者纯粹就是因为赶上好运气了,你会得到一些非常有趣的回答——经过人工编辑的后期加工润色一下,真的能生成一些颇有趣味的文章 。
 
无论是让他写文章、写剧本,写诗,还是写歌词,它的能力都会让你感到佩服 。
我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
一首霉霉风格,关于新冠疫情的歌 。图片来源:硅星人
ChatGPT 作为一个极其前沿的技术 demo(虽然用户量破了两百万,但仍然不算是一个“产品”),目前展示出的创作能力已经足以令人惊讶 。
但观察网络上大量用户和它的对话,特别是当它给出一些特定答案,或者完全答不上来的时候,一部分用户所表现出来的鄙夷或嘲讽……
我发现其实很多人误会了 ChatGPT,高估了它的能力 。
在 OpenAI 创立不久后,这家硅谷研究型公司就将研究重心之一聚焦在了大型生成式模型上 。在2019年推出的 GPT-2,在训练预料数据、训练技术、参数量等关键细节上实现了跳跃式的进步和巨大的改善 。
到了 2020年,OpenAI 发表了那篇注定将在未来荣膺经典大奖的论文《Language Models are Few-Shot Learners》,展示了当时最新一代的 GPT-3 超大规模生成式语言模型在完成各种文本生成类任务上的杰出能力 。
相比前代,GPT-3 的参数量高出了10倍以上,并且直接使用自然语言输入进行训练,去掉了微调参数的步骤 。更重要的是,GPT-3 的训练语料数据库极其巨大,包含了来自整个互联网的信息 。以至于在 OpenAI 推出基于 GPT-3 的商用 API 时,众多用户发现几乎没有任何问题难住它 。实际上当时的 GPT-3 已经像今天的 ChatGPT 这样火过一次了,只是当时没有面向公众开放,能体会其强大的用户数量有限 。
学术界和工业界本来猜测 OpenAI 会在 今年 的机器学习学术会议上正式发布 GPT-4, 结果没能 遂愿 。不过 OpenAI 并没有晾着大家,而是在今年推出了 GPT-3.5 ,并且 在 上周发布 了基于这个升级版模 型的 ChatGPT,立刻风靡全球,让 超百万 人玩到上瘾 。
我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
ChatGPT 是一个:
 
  •  
    面向对话而优化
     
  •  
    能够解答各种问题,提供有价值信息的
     
  •  
    聊天机器人
     
 
作为一个聊天机器人,ChatGPT 具有同类产品的一些主流特性,特别是多轮对话能力,能够在同一个会话期间内回答上下文相关的后续问题 。
但更重要的是,因为采用了先进的、注重道德水平的训练方式,ChatGPT 具有其他聊天机器人不具备或表现较差的能力:承认自己的错误,并且按照预先设计的道德准则,对“不怀好意”的提问和请求“说不” 。
ChatGPT 仍然有它的局限所在 。
第一条局限,在于知识库有截止日期,且不具备网络访问能力 。
在上周,我们曾经引用了一条来自早期用户的锐评:ChatGPT 可以取代谷歌了 。


推荐阅读