大模型 RAG 优化 收集一
发布时间:2024年01月21日
痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失
问题1:如何让LLM简要、准确回答细粒度知识?
问题2:如何让LLM回答出全面的粗粒度(跨段落)知识?
分析:文档分割不够准确,导致模型有可能只回答了两点,而实际上是因为向量相似度召回的结果是残缺的。有人可能会问,那完全可以把切割粒度大一点,比如每10个段落一分。但这样显然不是最优的,因为召回片段太大,噪声也就越多。LLM本来就有幻觉问题,回答得不会很精准
文章来源:https://blog.csdn.net/fan_fan_feng/article/details/135703171
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!