在机器学习中,Prompt通常指的是一种生成模型的输入方式。生成模型可以接收一个Prompt作为输入,并生成与该输入相对应的输出。Prompt可以是一段文本、一个问题或者一个片段,用于指导生成模型生成相应的响应、续写文本等。
一般大模型蕴含的训练数据量往往是百亿级别甚至万亿级别。大模型通常无法在小数据上微调。因此,基于Prompt的微调技术便成为了首要选择。
有两种方向上的优化方式:
从Prompt结构上
从Prompt内容上
角色扮演
游戏。让大模型想象自己是某方面的专家、因而获得更好的任务效果。推理或计算步骤
来解决较难的推理问题,比如进行应用数学计算。比较重要的是Few-Shot Prompt
和Chain-of-Thought Prompt
。它们对后续人们构建AI Agent应用以及各项大模型产品落地起到了关键的作用。
eg:尝试给宠物狗取个名字
Zero-Shot
的Prompt中,大模型给出的名字比较泛化,只是一种可能的比较合理的解释。Few-Shot
的Prompt中,大模型能够了解我们的取名倾向,并给出和示例风格一致的名字。CoT Prompt则能够大幅提高大模型的多步推理能力:
Cot Prompt
,让他输出详细的计算过程或者思考过程,大模型就能够给出正确的结果。有时合理组合使用这些Prompt优化方法,就可以让Prompt效果更好,整体框架结构:
假设我们的目标是获取一个浅显易懂的关于导数的解释方式,第一种方式是:
第二种方式我们来应用一下框架:
Prompt的优化并不是一蹴而就的,而是一个持续的过程,使用上述方式和框架也不能够保证每次都可以一次就拿到满意的结果,尤其是当我们需要大模型完成一些比较复杂的工作时。但是遵循这些方法,我们可以有更高的可能性能够通过较少的调整次数得到一个满意的结果,并且能够在这个结果上进行微调,比如润色,适当地增加图表等。
Prompt 除了人工调节,也可以让机器自动调节,也就是由机器自动生成 Prompt,这就是 Prompt Tuning。