书生·浦语大模型--第四节课笔记--XTuner大模型单卡低成本微调

发布时间:2024年01月24日

在这里插入图片描述

Finetune简介

增量预训练和指令跟随
在这里插入图片描述
通过指令微调获得instructed LLM
在这里插入图片描述

指令跟随微调

一问一答的方式进行
在这里插入图片描述
对话模板
在这里插入图片描述
计算损失
在这里插入图片描述

增量预训练微调

不需要问题只需要回答,都是陈述句。计算损失时和指令微调一样
在这里插入图片描述

LoRA QLoRA

不需要太大的显存开销。增加旁路分支Adapter。
在这里插入图片描述
比较:

  • 全参数微调:整个模型加载到显存中,所有模型的参数优化器也要加载到显存中
  • LoRA微调:模型也需要加载到显存中,但是参数优化器只需要LoRA部分
  • QLoRA微调:加载模型时就4bit量化加载,参数优化器还可以在CPU和GPU之间调度,显存满了可以在内存里跑
    在这里插入图片描述

XTuner介绍

在这里插入图片描述

快速上手

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

8GB显卡玩转LLM

动手实战环节

文章来源:https://blog.csdn.net/lalala12ll/article/details/135738066
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。