LLM的局限性: 知识时效性,专业能力,定制化成本
两种大模型开发范式: RAG FineTune
RAG: 检索问答生成 外挂知识库 成本低
FineTune: 更新成本高 GPU算力要求高
RAG开发框图: 用户输入 文本向量化 匹配相似文本段
LangChain框架介绍
开源工具 提供LLM通用接口 简化应用程序开发
核心组件: 链(chains) 例如 检索问答链 覆盖RAG的全部流程
基于LangChain搭建RAG应用
加载源文件 文档分块 文档向量化
InternLM接入LangChain
向量数据库构建
基于RAG问答系统可能的优化点: 检索方向 Prompt