??????论文地址:https://arxiv.org/abs/2311.09210
在快速发展的人工智能和机器学习领域,出现了一种突破性的方法,显着增强了检索增强语言模型(RALM)的稳健性和可靠性。白皮书《Chain-of-Note (CoN): Enhancing Robustness in Retrieval-Augmented Language Models》深入探讨了这种新颖的方法。
为了应对这些挑战,本文引入了“Chain-of-Note”(CoN),这是一种旨在增强 RALM 稳健性的创新框架。CoN 的独特主张是为检索到的文档生成顺序阅读笔记,确保系统评估它们与输入问题的相关性。这种方法不仅评估每个文档的重要性,而且还确定最可靠的信息,从而提高准确性和上下文相关性。
白皮书 —?https://arxiv.org/pdf/2311.09210.pdf
感谢这篇论文的作者,它确实是很好的工作
论文中描述的注释链(CoN)技术既可以应用于提示环境,也可以应用于准备语言模型的训练数据集。以下是它在每种情况下的使用方式:
提示:?CoN 技术涉及在得出最终答案之前生成中间步骤或“阅读笔记”。这种方法可以集成到语言模型的提示策略中。当向模型提供复杂查询时,可以提示模型生成一系列注释,反映检索到的信息的相关性和详细信息,从而得出最终响应。这反映了思维链提示风格,鼓励模型“大声思考”并详细说明其思维过程,这已被证明可以提高其输出的质量和可靠性。
准备训练数据集:对于训练数据集,CoN 方法可用于通过添加表示模型推理过程的注释来增强数据集。通过创建不仅包括问题和答案,还包括解释为什么特定文档相关或不相关的中间阅读笔记的训练实例,模型可以学习更好地评估其检索到的信息的可信度和相关性。这种训练可能会改进模型处理噪声数据的方式以及在遇到训练范围之外的问题时的响应方式。
但本文明确提到了训练数据集的准备。
然后我脑子里快速闪过一个念头,如果它用在提示中CoT(思想链)和CoN有什么区别。
差异如下表所示
该过程涉及使用 ChatGPT 生成 10K 训练数据,然后将其用于训练 LLaMa-2 7B 模型。这种方法不仅被证明具有成本效益,而且还增强了模型生成上下文丰富的阅读笔记的能力,同时保持对最终答案准确性的关注。
法国的首都是什么?
检索到的文件#1:“巴黎以其咖啡馆和餐馆而闻名,它是法国人口最多的城市。”
检索到的文件#2:“里昂是法国一座历史文化名城,以其美食而闻名。”
标准 RALM 响应:可能会根据它认为更相关的文档错误地生成响应,或者如果它仅检索文档 #2,则可能会错误地回答“Lyon”。
方法:
CoN 综合回应:考虑到注释,该模型正确地将巴黎识别为法国首都,因为文档 #1 提供了相关信息,而文档 #2 尽管提到了另一个主要城市,但与巴黎作为首都的地位并不矛盾。
让我们看一下 CoN 框架如何应用的示例:
CoN 方法通过创建这些中间“阅读笔记”,使模型能够更好地滤除噪声、处理未知场景并提供更准确的答案。
CoN 的发展是寻求更可靠、更强大的人工智能系统的重大飞跃。通过增强 RALM 辨别和忽略不相关信息的能力,CoN 为 AI 响应的准确性设立了新标准。它的影响是巨大的,从改进搜索引擎和虚拟助手到数据分析和决策人工智能系统中更复杂的应用。
EM?=(精确匹配数/问题总数)×100
在此公式中,“完全匹配”意味着模型的响应与问题的真实答案相同,总分表示为这些完全匹配占评估的总问题的百分比。