大模型 RAG 面试篇

发布时间:2024年01月19日
1.LLMs 存在模型幻觉问题,请问如何处理?

?检索+LLM。

先用问题在领域数据库里检索到候选答案,再用LLM对答案进行加工。

2.基于LLM+向量库的文档对话 思路是怎么样?
  1. 加载文件
  2. 读取文本
  3. 文本分割
  4. 文本向量化
  5. 问句向量化
  6. 在文本向量中匹配出与问句向量最相似的top k个
  7. 匹配出的文本作为上下文和问题一起添加到 prompt 中
  8. 提交给 LLM 生成回答
3.基于LLM+向量库的文档对话 核心技术是什么?
  1. 基于LLM+向量库的文档对话 核心技术:embedding
  2. 思路:将用户知识库内容经过 embedding 存入向量知识库,然后用户每一次提问也会经过 embedding,利用向量相关性算法(例如余弦算法)找到最匹配的几个知识库片段,将这些知识库片段作为上下文,与用户问题一起作为 promt 提交给 LLM 回答
4.基于LLM+向量库的文档对话 prompt 模板 如何构建?

已知信息:

{context}

根据上述已知信息,简洁和专业的来回答用户的问题。如果无法从中得到答案,请说 “根据已知信息无法回答该问题” 或 “没有提供足够的相关信息”,不允许在答案中添加编造成分,答案请使用中文。

问题是:{question}

文章来源:https://blog.csdn.net/fan_fan_feng/article/details/135702566
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。