书生浦语大模型概述

发布时间:2024年01月05日

github 地址:https://github.com/InternLM/tutorial

一、大模型简介

在这里插入图片描述

二、书生浦语 介绍

2.1 简介

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.2 模型到应用

在这里插入图片描述
在这里插入图片描述
如上图所示,从模型到应用通过共需要经过以下4个步骤:

  1. 模型评测:选择适合自己需求的模型。
    不同的大模型,由于训练数据集和训练策略不同,导致大模型的能力也有不同程度的偏好。
  2. 模型微调:若是选择的大模型基本满足需求,但是又要符合自己的特定场景,在这种情况下,就需要对模型进行微调,活着使用RAG策略。
  3. 模型评测:经过微调训练的模型,在经过评测之后,判断是否满足自己的需求。
  4. 模型部署:为了降低模型推理过程的资源占用,降低成本,模型部署还是很有必要的。

2.3 书生浦语提供的功能

在这里插入图片描述

2.3.1 数据

数据共分为两部分:

  1. 书生·万卷 1.0 :大小约为2TB,官方经过筛选处理的数据。
  2. 开源数据集 openDataLab:大小约为80TB
    在这里插入图片描述
    在这里插入图片描述

2.3.2 预训练

在这里插入图片描述

2.3.3 微调 - XTuner

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

2.3.4 评测-openCompass

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.3.5 部署

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

文章来源:https://blog.csdn.net/xiao_xian_/article/details/135407055
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。