书生·浦语大模型全链路开源体系(笔记)

发布时间:2024年01月07日

大模型成为热发展人工智能的重要途径

专用模型:针对特定任务,一个模型解决一个问题

通用大模型:一个模型应对多种任务、多种模态

书生·浦语大模型开源历程

书生·浦语大模型系列

轻量级:InternLM-7B? ? ? ? ? ? ? ? ? ? 社区低成本可用最佳模型规模

中量级:InternLM-20B? ? ? ? ? ? ? ? ? 商业场景可开发定制高精度较小模型规模

重量级:InternLM-123B? ? ? ? ? ? ? ? 通用大预言模型能力全面覆盖千亿模型规模

从模型到应用

书生·浦语大模型全链路开源体系

数据--->

预训练InternLM-Train--->

微调XTuner--->

sgusgebf部署LMDeploy--->

评测OpenCompass--->

应用Lagent AgentLego

数据

书生·万卷1.0

总数据量:2TB

发布日期:8月14日

多模态融合、精细化处理、价值观对齐

预训练

高可拓展、极致性能优化、兼容主流、开箱即用

微调

增量续训、有监督微调

高效微调框架XTuner:适配多种生态、适配多种硬件

极致的显存优化:消费级显卡(8GB)玩转微调

评测

部署

LMDeploy:提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务

智能体

大语言模型的局限性:最新信息和知识的获取、回复的可靠性、数学计算、工具使用和交互

LLM>智能体

多模态智能体工具箱AgentLego

文章来源:https://blog.csdn.net/2301_80618119/article/details/135376409
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。