万微科技2016开源聊天机器人 Blender,更具“人情味”,Facebook( 三 )


然而 , 问题并不是没有 。 进一步的实验显示 , Blender有时会从训练语料库中产生攻击性样本风格的响应 , 这些响应大部分来自Reddit的评论 。 FAIR的研究人员表示 , 在BlendedSkillTalk数据集上进行微调 , 可以在一定程度上缓解这一问题 , 但要全面解决这一问题 , 还需要使用不安全词过滤器和一种安全分类器 。
万微科技2016开源聊天机器人 Blender,更具“人情味”,Facebook
文章图片
当然 , FAIR的研究人员并没有宣称开放域对话的问题已经得到解决 。 事实上 , 他们列举了Blender的几个主要限制:
词汇用法:即使是最好的Blender模型 , 也会倾向过于频繁地生成常见的短语 , 如:“doyoulike”、“lotoffun”、“haveanyhobbies”等 。 无意识的重复:模型经常会重复别人对它们说的话 。 比如说 , 如果谈话对象提到了宠物狗 , 它们就会称自己养了一只宠物狗 , 或者说自己和对方喜欢的是同一个乐队等等 。 矛盾和遗忘:Blender模型自相矛盾 , 尽管在较大的模型中矛盾的程度较轻 。 但它们也未能建立起逻辑上的联系 , 即 , 它们不应该提出之前曾提过的问题(以避免出现“遗忘”的现象) 。 知识和事实的正确性:比较容易诱导Blender模型出现事实性错误 , 尤其是在深入探索一个主题时 , 更容易出现事实性错误 。 对话长度和记忆:FAIR的研究人员称 , 在数天或数周的对话过程中 , Blender的对话可能会变得枯燥乏味且重复 , 尤其是考虑到Blender记不住之前的对话内容 。 更深层次的理解:Blender模型缺乏通过进一步的对话学习概念的能力 , 而且它们没有办法与现实世界中的实体、行为和经验建立联系 。要解决所有这些问题可能需要新的模型架构 , FAIR团队表示正在探索 。 它还专注于构建更强大的分类器 , 以过滤掉对话中的有害语言 , 以及消除聊天机器人中普遍存在的性别偏见的技术 。
Facebook在一篇博文写道:“我们对改进开放域聊天机器人方面取得的进展感到兴奋 , 然而 , 构建一个真正智能的、能像人类一样聊天的对话智能体 , 仍然是当今人工智能领域最大的公开挑战之一……该领域的真正进步取决于可重现性 , 这是建立在最佳技术之上的机会 。 我们相信 , 发布模型对全面、可靠地了解它们的能力至关重要 。 ”
FAIR在GitHub上提供了具有9000万个参数、27亿个参数和94亿个参数的预训练和微调的Blender模型 , 以及一个用于与聊天机器人交互的脚本(内置了安全过滤器) 。 所有用于模型评估和微调的代码 , 包括数据集本身 , 都可以在ParAI中获得 。
关注我并转发此篇文章 , 私信我“领取资料” , 即可免费获得InfoQ价值4999元迷你书!


推荐阅读