参考教程,开展基于 InternLM 和 LangChain的知识库构建,通过RAG(检索增强生成算法)实现知识问答。
大模型可以完成基础的知识问答,而在专业领域的知识很缺乏,如果灌入专业知识重新训练模型的话,成本是很高的。RAG方法就是用来解决LLM专业知识欠缺,训练成本高的问题。如果把大模型比喻成一个人,那么RAG就是在回答问题的时候给这个人一本书,让他一边查书一边回答问题。
RAG具体的过程如图:
把用户的问题和知识库的数据匹配,一起丢给LLM去回答问题。
在工程实践中,可以利用LangChain库实现RAG算法,LangChain是链式地调用各种库工具,具体如图: