小胖有技能|要不,让图灵“亲自”给你讲讲?,还没搞懂人工智能吧( 二 )


用到OpenAI的API接口 , 套用GPT-3强大能力
AIWriter官网显示 , 这个算法使用了OpenAI的API接口 , 首先能够识别出人们是在给哪位名人写信 , 然后可以根据内容中的关键词了解语义 , 再使用API作为接收方 , 使用API的内部知识进行响应 。
小胖有技能|要不,让图灵“亲自”给你讲讲?,还没搞懂人工智能吧
文章图片
据作者介绍 , AIWriter几乎可以对话历史上所有的科学家以及文化历史名人!由于项目作者AndrewMayne是位作家 , 因此在平时的创作过程中他可能需要构建一些虚拟人物 , 而AIWriter完全可以为他在构建虚拟人物时提供一些灵感 。
由此可见 , OpenAI的API内部语料非常丰富 , 而这背后 , 靠的是强大的GPT-3 。
这里也给不熟悉的读者再复习一下OpenAI在今年6月放出的大招——GPT-3 。 GPT-3依旧延续了此前的单向语言模型训练方式 , 但GPT-3的模型尺寸大得惊人 , 参数量高达1750亿 , 相当于1600个GPT1的大小 , 这还不包括实际训练中需要存储地梯度等中间变量 。
小胖有技能|要不,让图灵“亲自”给你讲讲?,还没搞懂人工智能吧
文章图片
因此这也导致它训练起来非常昂贵 , 大概要花1200万美金 , 约合人民币8500多万 。
同时 , GPT-3主要聚焦于更通用的NLP模型 , 因此GPT-3的主要目标是用更少的领域数据、且不经过精调步骤去解决问题 , 解决了当前BERT类模型对领域内有标签数据的过分依赖以及对于领域数据分布的过拟合的两个缺点 。
GPT-3的发布甚至令一些业内人士感到恐慌 , “这似乎正在形成AI领域的科研垄断” 。 然而GPT-3对AI行业又十分重要 , 甚至至少能够给深度学习“续命”5-10年 。
由此可见 , GPT-3丰富的语料为AIWriter这个项目打足了气 。 又话说回来 , 正是有着如此丰富的语料 , 才能让AndrewMayne这样的非专业AI领域研究者以及其他热爱AI技术的人员能够更容易的打造自己的AI项目 。
【小胖有技能|要不,让图灵“亲自”给你讲讲?,还没搞懂人工智能吧】GPT-3被玩儿坏了 , 不仅可以让AI写食谱 , 还能写谷歌的广告词
为了让更多人享用到GPT-3的魅力 , OpenAI最近也开放了GPT-3的API接口 , 不用码代码也能轻松上手 。 上文提到的AIWriter的创作者也不是科班出身的技术从业者 , 而是一位热爱人工智能的华尔街日报畅销小说作家AndrewMayne 。
这不 , 很多之前对技术不感冒的大V也纷纷开始试用 , 并做出了一些很酷的demo , 在Twitter引起了热议 , 网友纷纷表示 , “GPT-3被玩坏了” 。
比如旧金山一位开发商和艺术家ArramSabeti就在推特上说:“玩GPT-3就仿佛可以看到未来 。 ”这几乎就是自GPT-3发布以来社交媒体上大部分人对这个强大语料库的反应 。
小胖有技能|要不,让图灵“亲自”给你讲讲?,还没搞懂人工智能吧
文章图片
Sabeti在博客上展示了他用GPT-3做的许多AI生成文本项目 , 比如可以用AI写一篇短篇小说 , 用AI写歌、新闻稿等等 。 他还发了一篇博文称 , “GPT-3几乎什么都能写!”
小胖有技能|要不,让图灵“亲自”给你讲讲?,还没搞懂人工智能吧
文章图片
Sabeti博客链接:
https://arr.am/2020/07/09/gpt-3-an-ai-thats-eerily-good-at-writing-almost-anything/
除此之外 , 还有一位名叫elyase的热心网友整理出了大家用GPT-3做的项目集锦 , 有趣的Demo项目都在这个合集里:
https://github.com/elyase/awesome-gpt3
文摘菌看了一下 , 有用GPT-3做数据分析的 , 比如根据描述创建图表;有做逻辑推理的 , 比如让GPT-3做数学题;还有一些比较常规的文本生成项目 , 比如可以让AI帮你想Google的广告词:


推荐阅读