NLP范式新变化:Prompt

2022-11-04 11:37:24 浏览数 (1)

Prompt简介

最近,NLP上又开发出了一种新的范式:Prompt。它通过定义模板来提醒下游任务模型学习的特定目标,在更少的更新参数场景下达到了和fine-tuning方法一样的效果。

具体可以看一下这篇综述文章:《Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing》

简单的来说,不同于fine-tuning方法,prompt范式需要给出一个定义好的模板,这个模板可以是离散的或者是连续的,来提醒模型在预训练的时候学习的知识。这是因为预训练的任务和下游任务往往差别较大,模型可能会存在特定性遗忘。

为了使用这些模型执行预测任务,使用未填充的文本字符串prompt ,将原始输入 进行修改。然后使用语言模型填充文本信息来获取最终字符串 。它允许对语言模型进行大量原始文本的预训练,并通过定义新的模板函数,使得模型能够进行few-shot和zero-shot学习,以适应几乎没有或没有标记数据的场景。

从上图可以看出,prompt方法本质上就是定义了不同的手工模板:“JDK is developed by __”,“This is a super long text. TLjDR: ”, “Birds can __”。就可以使得预训练模型适应不用的任务场景。

NLP中的两次重大改变

一直以来,监督学习(supervised learning)使用在很多机器学习任务上,这其中也包括NLP任务。由于传统的机器学习模型,不能够很好的对特征进行提取,因此在NLP任务上往往需要特征工程(feature engineering)进行辅助。但神经网络的出现改变了这一现状,使得原始特征可以与模型本身的训练一起学习,因此研究重点转移到神经网络结构工程(architecture engineering)上。在结构工程中,通过设计有助于学习输入特征的合适网络架构来提供归纳偏差。

NLP模型的第一次重大变化

从2017-2019年开始,NLP模型引来了第一次重大的变化。从以前的监督学习,转变为“预训练 微调(pre-train fine-tune)”范式。在这种范式下,模型提前预训练好一个language model(LM),然后在下游任务中对文本数据进行微调预测。由于训练LM模型所需的原始文本数据非常丰富,因此可以在大型数据集上训练这些模型,在这个过程中,可以通过LM模型学习到文本之间的通用特征。而在下游任务中,则需要引入额外的参数进行fine-tuning,以此来适应特定的任务。目前这种范式称为NLP界的主流范式,它可以在不同任务上提升模型的效果。

NLP模型的第二次重大变化

NLP范式从预训练 微调,已经变成了”预训练,prompt和预测“(pre-train,prompt and predict)范式。在这种范式中,不是通过目标工程将预先训练的LM来适应下游任务,而是重新制定下游任务,使其看起来更像在文本提示的帮助下利用原始的LM模型接近特定任务。

下面举几个例子:

  • 比如,但我们识别句子的情感时,”I missed the bus today.“,我们在后面接上手工模板"I felt so ___"。这样就可以让预训练好的LM模型填充情感词语。
  • 又或者,可以制定下面模板”English:I missed the bus today。French:____“。让LM模型填充词语作为法语翻译。

通过这种方法,可以选择合适的prompts,让LM模型与预测对应的输出结果,不需要额外的特定任务训练。该方法的优点是,在给定一组适当prompts的情况下,以完全无监督方式训练的单个LM可以用于解决大量任务。然而,它还是会存在一定局限性,这种方法引入了即时工程的必要性,需要找到最合适的提示,让LM去解决任务。

下面这个图对比了NLP中的目前有的范式:

  • 传统的监督学习(不需要神经网络)
  • 神经网络-监督学习:不同NLP任务需要单独训练
  • pre-train fine-tune:目前流行的范式,可以适应不同的场景任务
  • pre-train prompt predict:模板prompt范式,可以适应不同的场景任务

Prompt的标注描述

让我们先来看一下,以前NLP中监督学习的流程。

我们有输入 ,基于模型 得到预测值 。由于要学习模型参数 ,因此在给定输入和输出数据下,训练模型来更新参数。例如:

  • 在情感分类任务上,输入句子 "I love this movie",输出为 为
  • 在机器翻译任务上,输入句子为Finnish “Hyv ̈a ̈a huomenta.”,输出句子为English "Good morning"

接下来介绍具体的prompt流程。

1

添加Prompt

如上图所示,函数 应用在输入句子 中得到Prompt 。这个函数包含以下两个步骤:

  • 使用模板,这个模板有两个填充位,包括输入填充[x],和对应的回应填充[z]。其中[x]表示为输入句子,[z]表示模型预测位,这在之后需要映射到 标签中
  • 把输入句子 填充到[x]

在上面例子中, "I love this movie",模板为"[x] Overall, it was a [z] movie."。应用模板后会得到 “I love this movie. Overall, it was a [z] movie.”。当然,这种模板不一定是指固定某些词语,也可以是一些连续性的embedding空间。如果[z]在模板中间,则称为cloze prompt,如果[z]在模板最后,则称为prefix prompt。

2

搜索和映射[z]

我们可以首先定义 为所有 值的集合。对于分类任务来说, 可以是{excellent, good, OK, bad, horrible}。然后可以利用预训练的LM模型预测最合适的词语。

最后,从得到的最高分数的词语中,映射到 值,就可以完成整体Prompt的流程。

下图贴了具体的Prompt在不同场景上,常用的手工模板,读者可以针对不同任务进行选择:

后续

Prompt中,最主要的一般来说是设计模板,因此目前主流门派分为:离散型prompt和连续型prompt。

在后续的文章中,主要介绍自己读到的连续型prompt论文。

0 人点赞