大模型全链路开源开放体系等你来探索~ https://github.com/internLM/tutorial
1)数据: 书生·万卷
2TB数据,并行训练,极致优化涵盖多种模态与任务?
预训练: InternLM-Train
并行训练,优化到极致,速度达到3600 tokens/sec/gpu
微调: XTuner
支持全参数微调,支持LoRA等低成本微调
部署:LMDeploy
全链路部署,性能领先,每秒生成2000+tokens
评测:OpenCompass
全方位评测,性能可复现,80套评测集,40万道题目
应用:Lagent
支持多智能体,支持多种代码解析器等多种工具