这是OpenAI官方的cookebook最新更新的一篇技术博客 , 里面说明了为什么我们需要使用embeddings-based的搜索技术来完成问答任务 。
本文原文来自DataLearner官方博客:OpenAI官方教程:如何使用基于embeddings检索来解决GPT无法处理长文本和最新数据的问题 | 数据学习者官方网站(Datalearner)
文章插图
尽管GPT的能力很强 , 但是OpenAI认为 , 基于embeddings的搜索依然十分重要 。甚至 , 这种方式比模型做fine-tuning更好 。本篇博客将简单介绍一下为什么OpenAI认为目前基于embeddings的搜索是GPT的最强补充能力!
一、GPT的缺点
尽管目前GPT-4或者ChatGPT的能力已经很强大 , 但是目前它依然有很大的缺陷:
- 训练数据是基于2021年9月之前的数据 , 缺少最新的数据
- 无法访问我们无法公开的文档
- 基于历史会话中获取信息
因此 , OpenAI发布了这样一篇文档 , 说明如何使用两步搜索回答来增强GPT的能力:
- 搜索:搜索您的文本库以查找相关的文本部分 。
- 请求:将检索到的文本部分插入到发送给GPT的消息中 , 并向其提出问题 。
GPT可以通过两种方式学习知识:
- 通过模型权重(即在训练集上微调模型)
- 通过模型输入(即将知识插入到输入消息中)
尽管微调可能感觉更自然——毕竟 , 通过数据训练是GPT学习所有其他知识的方式——但OpenAI通常不建议将其作为教授模型知识的方式 。微调更适合于教授专业任务或风格 , 对于事实回忆来说则不太可靠 。
注意 , 这里说的是事实回忆 , 也就是说 , 如果你有自己的数据 , 只想从数据中获得知识或者获得相关的内容 , 那么搜索比微调可能更好 。举个例子来说 , 如果你有大批的历史数据 , 你只想找到数据中你需要的部分 , 包括某些概念在哪里出现过 , 为什么使用了它等等 。这些都算是事实回忆 。
但是 , 如果你希望模型可以基于某种模式生成某些内容 。例如 , 你希望模型可以基于XX风格生成某些工作日志甚至是宣传内容 , 那么微调可能效果更好 。
类比来说 , 模型权重就像长期记忆 。当您对模型进行微调时 , 就像为一周后的考试而学习 。当考试到来时 , 模型可能会忘记细节 , 或者错误地记住它从未读过的事实 。
相比之下 , 消息输入就像短期记忆 。当您将知识插入消息时 , 就像带着开放的笔记参加考试 。有了笔记 , 模型更有可能得出正确的答案 。
相对于微调 , 文本搜索的一个缺点是每个模型一次只能读取有限数量的文本 , 以OpenAI为例 , 其一次输入的内容限制如下:
模型名称
文本最长输入
gpt-3.5-turbo
4096个tokens(大约5页)
gpt-4
8192个tokens(大约10页)
gpt-4-32k
32768个tokens(约40页)
延续这个比喻 , 您可以将模型想象成一位学生 , 尽管可能有许多参考书可供借鉴 , 但一次只能查看几页笔记 。
因此 , 为了构建一个能够利用大量文本回答问题的系统 , OpenAI建议使用“搜索-提问”方法 。
三、文本检索
搜索文本的方法很多 , 包括:
- 基于词汇的搜索(Lexical-based)
- 基于图形的搜索(Graph-based)
- 基于嵌入的搜索(Embedding-based)
OpenAI推荐的词嵌入方法 。嵌入很容易实现 , 并且在问题中表现尤为出色 , 因为问题通常在词汇上不会与它们的答案重叠 。
可以考虑将仅使用嵌入的搜索视为作为整个系统的起点 。更好的搜索系统可能会结合多种搜索方法 , 以及特性 , 如受欢迎程度、最近性、用户历史记录、与先前搜索结果的冗余、点击率数据等 。
推荐阅读
- 我们和OpenAI联创聊了聊GPT的当下局限:两年后可能就没了
- 上古卷轴6|《上古卷轴6》或包含多人模式?官方招聘启事显端倪
- 一张估值20亿的“笑脸”,正在拆掉OpenAI的围墙
- 张继科|2023已有10位明星“塌房”:张继科被曝涉赌,任泉被官方通报
- 眼妆|自测一下?你属于哪种眼型呢?我是杏眼,你呢?(附上眼妆教程)
- 任泉|官方通报:王京花,任泉涉非吸案!!
- Shopify跨境电商独立站SEO搜索引擎优化教程
- 李小冉|官方通报:王京花,任泉涉非吸案!
- 黄诗棋|官方通报:王京花与任泉,涉非吸案!
- 任泉|官方通报:王京花,任泉涉非吸案!