Mindspore 公开课 - prompt

发布时间:2024年01月16日

prompt 介绍

Fine-Tuning to Prompt Learning

在这里插入图片描述

Pre-train, Fine-tune
  1. BERT
  • bidirectional transformer,词语和句子级别的特征抽取,注重文本理解
  • Pre-train: Maked Language Model + Next Sentence Prediction
  • Fine-tune: 根据任务选取对应的representation(最后一层hidden state输出),放入线性层中

例:Natural Language Inference

在这里插入图片描述

Pre-train, Fine-tune: models
  1. BERT
    • bidirectional transformer,词语和句子级别的特征抽取,注重文本理解
    • Pre-train: Maked Language Model + Next Sentence Prediction
    • Fine-tune: 根据任务选取对应的representation(最后一层hidden state输出),放入线性层中
      例:Named Entity Recognition
      在这里插入图片描述
Pre-train, Fine-tune: models
  1. GPT
    • auto-regressive model,通过前序文本预测下一词汇,注重文本生成
    • Pre-train: L 1 ( U ) = ∑ i log ? P ( u i ∣ u i ? k , … , u i ? 1 ; Θ ) L_1(\mathcal{U})=\sum_i \log P\left(u_i \mid u_{i-k}, \ldots, u_{i-1} ; \Theta\right) L1?(U)=i?logP(ui?ui?k?,,ui?1?;Θ)
    • Fine-tune: task-specific input transformations + fully-connected layer
      在这里插入图片描述
Pre-train, Fine-tune: challenges
  1. gap between pre-train and fine-tune

少样本学习能力差、容易过拟合

在这里插入图片描述

Pre-train, Fine-tune: challenges
  1. gap between pre-train and fine-tune

少样本学习能力差、容易过拟合
在这里插入图片描述

Pre-train, Fine-tune: challenges
  1. cost of fine-tune

现在的预训练模型参数量越来越大,为了一个特定的任务去 finetuning 一个模型,然后部署于线上业务,也会造成部署资源的极大浪费
在这里插入图片描述

Pre-train, Prompt, Predict: what is prompting

  • fine-tuning: 通过改变模型结构,使模型适配下游任务
  • prompt learning: 模型结构不变,通过重构任务描述,使下游任务适配模型

在这里插入图片描述

Pre-train, Prompt, Predict: workflow of prompting

在这里插入图片描述

Pre-train, Prompt, Predict: workflow of prompting
  1. Template: 根据任务设计prompt模板,其中包含 input slot[X] 和 answer slot [Z],后根据模板在 input slot 中填入输入
  2. Mapping (Verbalizer): 将输出的预测结果映射回label

在这里插入图片描述

Pre-train, Prompt, Predict: prompt design

Prompting 中最主要的两个部分为 template 与 verbalizer 的设计。

他们可以分别基于任务类型和预训练模型选择(shape)或生成方式(huamn effort)进行分类。

在这里插入图片描述

文章来源:https://blog.csdn.net/Wolf_xujie/article/details/135612018
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。