专用模型:针对特定任务,一个模型解决一个问题
通用大模型:一个模型应对多种任务、多种模态
轻量级:InternLM-7B? ? ? ? ? ? ? ? ? ? 社区低成本可用最佳模型规模
中量级:InternLM-20B? ? ? ? ? ? ? ? ? 商业场景可开发定制高精度较小模型规模
重量级:InternLM-123B? ? ? ? ? ? ? ? 通用大预言模型能力全面覆盖千亿模型规模
数据--->
预训练InternLM-Train--->
微调XTuner--->
sgusgebf部署LMDeploy--->
评测OpenCompass--->
应用Lagent AgentLego
总数据量:2TB
发布日期:8月14日
多模态融合、精细化处理、价值观对齐
高可拓展、极致性能优化、兼容主流、开箱即用
增量续训、有监督微调
高效微调框架XTuner:适配多种生态、适配多种硬件
极致的显存优化:消费级显卡(8GB)玩转微调
LMDeploy:提供大模型在GPU上部署的全流程解决方案,包括模型轻量化、推理和服务
大语言模型的局限性:最新信息和知识的获取、回复的可靠性、数学计算、工具使用和交互
LLM>智能体
多模态智能体工具箱AgentLego