Parameter-Efficient Fine-Tuning Methods for Pretrained Language Models: A Critical Review and Assessment
Lingling Xu, Haoran Xie, Si-Zhao Joe Qin, Xiaohui Tao, Fu Lee Wang
论文对参数高效的微调(PEFT)方法进行了全面的系统性回顾,这些方法用于预训练语言模型(PLMs),特别是大型语言模型(LLMs),以减少微调参数和内存使用,同时保持与全微调相当的性能。论文提出了一个全面的分类方案,将PEFT方法分为加性微调、部分微调、重参数化微调和混合微调,并建立了一个结构化框架以理解这些方法。此外,论文还通过广泛的微调实验,评估了这些方法在参数效率和内存效率方面的表现。
论文指出,尽管已有一些关于PEFT方法的研究,但这些研究存在局限性,例如没有涵盖最新的工作,或者没有进行相关实验。现有的研究主要集中在PEFT方法的分类和理论分析上,但缺乏对这些方法在实际应用中性能的全面评估。
为了解决LLMs在特定下游任务上的适应性问题,PEFT方法通过引入各种深度学习技术来减少可训练参数的数量,同时更新少量额外的参数或更新预训练参数的子集,以适应目标任务并减少灾难性遗忘的风险。此外,PEFT方法还通过选择性地或不更新预训练参数来避免过拟合。
论文通过使用11种代表性的PEFT方法进行广泛的微调实验,评估了这些方法在参数效率和内存效率方面的表现。实验结果表明,大多数PEFT方法在参数效率和内存效率方面都有显著的改进,并且与全微调方法相比,性能相当甚至更好。
论文提供了对PEFT方法的全面分析和回顾,识别了关键技术和方法,并将它们分类为不同的微调方法。通过广泛的实验,论文评估了这些方法在参数效率和内存效率方面的表现,并揭示了未来研究的潜在方向。这些研究为研究人员和实践者在面对LLMs带来的挑战和机遇时提供了宝贵的资源。