大规模语言模型--提示学习和语境学习( 二 )


提示学习方法易于理解且效果显著, 提示工程、答案工程、多提示学习方法、基于提示的训练策略等已经成 为从提示学习衍生出的新的研究方向 。
语境学习
语境学习 (IncontextLearning,ICL),也称上下文学习,其概念最早随着 GPT-3 的诞生而提出 。语境学习是指 模型可以从上下文中的几个例子中学习:向模型输入特定任务的一些具体例子 (也称示例 (Demonstration)) 以及 要测试的样例,模型可以根据给定的示例续写出测试样例的答案 。如下图所示 ,  以情感分类任务为例,向模型 中输入一些带有情感极性的句子、每条句子相应的标签、以及待测试的句子 ,  模型可以自然地续写出它的情感 极性为“Positive” 。语境学习可以看作是提示学习的一个子类,其中示例是提示的一部分 。语境学习的关键思想是从类比中学习, 整个过程并不需要对模型进行参数更新 ,  仅执行向前的推理 。大语言模型可以通过语境学习执行许多复杂的推理任务 。

大规模语言模型--提示学习和语境学习

文章插图
ICL 的关键思想是从任务相关的类比样本中学习 。上图给出了一个描述语言模型如何使用 ICL 进行情感分类任务的例子 。
  • 首先,ICL 需要一些示例来形成一个演示上下文 。这些示例通常是用自然语言模板编写的 。
  • 然后,ICL 将查询的问题(即你需要预测标签的输入)和一个上下文演示(一些相关的示例)连接在一起,形成带有提示的输入,与监督学习需要使用反向梯度更新模型参数的训练阶段不同,ICL 不进行参数更新 , 而是直接在预训练的语言模型上进行预测 。模型预计将从演示中学习到的模式进行正确的预测 。
  • 最后,利用训练有素的语言模型根据演示的示例来估计候选答案的可能性 。简单理解 , 就是通过若干个完整的示例,让语言模型更好地理解当前的任务,从而做出更加准确的预测 。
语境学习作为大语言模型时代的一种新的范式,具有许多独特的优势 。
  • 首先,其示例是用自然语言编写的, 这提供了一个可解释的界面来与大语言模型进行交互 , 可以让我们更好地跟语言模型交互,通过修改模版和示例说明我们想要什么,甚至可以把一些知识直接输入给模型,通过这些示例跟模版让语言模型更容易利用到人类的知识 。
  • 其次,不同于以往的监督训练,语境学习本身无需参数 更新, 这可以大大降低使得大模型适应新任务的计算成本,更容易应用到更多真实场景的任务 。
语境学习作为一种新兴的方法, 其作用机制仍有待深入研究 。
  • 1.语境学习中示例的标签正确性 (即输入和输出的具体对应关系) 并不是使其行之有效的关键因素,认为起到更重要作用的是输入和输入配对的格式、输入和输出分布等 。
  • 2.语境学习的性能对特定设置很敏感 ,  包括提示模板、上下文内示例的选择以及示例的顺序 。如何通过语境学习方法更好的激活大模型已有的知识成为一个新的研究方向 。




推荐阅读