- 用于可信检索扩增生成的同步忠实监控
本文提出了 SynCheck,一种轻量级监控器,可以实时检测不忠实的句子,并通过集成可衡量和互补的信号提供准确和即时的反馈和干预,以改善在长篇检索增强生成任务中对不忠实性错误的检测。此外,作者还介绍了基于 SynCheck 的 FOD 解码 - 基于支持度的知识重写用于增强检索的语言建模
通过引入支持性为基础的知识重写(SKR)方法,本文在 Retrieval-augmented language models (RALMs) 的生成过程中优化了知识的支持度,从而提高了最终回应的效果。使用数据筛选和重写优化算法,SKR 在六 - ACLGrowOVER:LLM 如何适应不断增长的现实世界知识?
提出了 GrowOVER-QA 和 GrowOVER-Dialogue 两种备受关注的动态开放领域问答和对话基准模型,通过持续更新以跟上知识的快速演变,解决了现有知识数据集过时的问题。引入了一种新颖的互动检索语言模型框架,使语言模型能够评估 - 增强检索辅助语言模型的双阶段一致性学习压缩器
该论文提出了一种新颖的两阶段一致性学习方法,用于改进检索增强语言模型的性能,通过整合一致性学习,目标是生成与教师模型的语义表示保持一致并提高对原始检索文档的忠实程度的摘要,经过多个数据集的经验证明,在问答任务中具有显著的精确性和效率提升,优 - RAG 与 RAU: 自然语言处理中检索增强语言模型的综述
大型语言模型与检索增强语言模型结合,提供了一个全面的概述,探讨了它们的范式、演化、分类和应用,以及其中关键组件如检索器、语言模型和增强部分,同时讨论了其在多个任务中的效用和评估方法,以及未来研究的方向。
- COLING利用细粒度反馈的强化检索在黑箱 LLM 中验证新闻断言
使用黑盒语言模型的精细反馈和增强检索,增强了新闻索赔事实验证的结果,并在真实世界的数据集上显著改进了强大的语言模型和非语言模型基线。
- ACL语言的更多空间:探究检索对语言模型的影响
利用 “理想检索” 方法研究检索增强语言模型,评估检索增强对语言模型行为的影响,观察到这些模型在权重保存方面具有更少的世界知识,在理解局部上下文和词间依赖方面表现更好,但在理解全局上下文方面表现更差。
- COLING知识之间的博弈:探索和解决检索增强语言模型中的知识冲突
探索和解决检索增强语言模型中的知识冲突,提出了冲突 - 分离 - 对比解码(CD2)方法来更好地校准模型的置信度,实验证明 CD2 可以有效解决检索增强语言模型中的知识冲突。
- 对密集通道检索器的后门攻击以传播虚假信息
通过语法错误在密集文段检索中引发危险的后门攻击,通过我们的方法,当用户查询无误时,我们的模型始终可靠地检索准确的信息,同时有效地过滤掉误导性信息。然而,当查询存在语法错误时,我们的系统显著提高了获取目标内容的成功率。
- 语言模型找到什么证据有说服力?
本研究通过构建 ConflictingQA 数据集并进行敏感性和反事实分析,发现当前的检索增强语言模型(LLMs)在回答有争议问题时很大程度上依赖于网页与查询的相关性,而忽视了人类认为重要的文本特征,如文本是否包含科学参考文献或使用中性语调 - C-RAG: 检索扩展语言模型的认证生成风险
本研究提出了 C-RAG 框架,旨在为 RAG 模型证明世代风险。具体地,我们为 RAG 模型提供了符合风险分析,并认证了世代风险的上界置信度称为符合世代风险。我们还对测试分布转移下的一般有界风险函数的符合世代风险提供了理论保证。当检索模型 - RAPTOR: 递归抽象处理树形检索
使用递归嵌入、递归摘要等方法的召回增强型语言模型可以在问题回答任务中取得卓越的结果,并在整体文档上具有整体的理解能力。
- 加速带有猜测的检索增强语言模型服务
通过猜测的检索和批量验证,RaLMSpec 提供了对迭代式 RaLM 的加速,保持了相同的模型输出。在多个评估上,RaLMSpec 相对于基准模型可以实现 1.75-2.39 倍的加速比。
- 链注:增强检索辅助语言模型的鲁棒性
Retrieval-augmented language models (RALMs) with Chain-of-Noting (CoN) significantly improve the robustness in handling - 理解长文问答的检索增强
通过使用相同的证据文档比较使用不同检索增强模型生成的答案,分析了检索增强对不同语言模型的影响,以及检索文档集的质量对相同语言模型生成的答案的影响。研究了生成答案的各种属性(如流利度、长度、差异等),重点是将生成的长篇答案与上下文证据文档进行 - EMNLPRegaVAE:一种用于语言建模的检索增强高斯混合变分自编码器
检索增强语言模型通过引入隐变量聚合检索信息解决了过时信息和虚构问题,并以 RegaVAE 作为一个例子,展示了在文本生成质量和幻觉去除方面的显著改进。
- 提升检索增强语言模型对无关背景的鲁棒性
使用检索增强语言模型 (Retrieval-augmented language models, RALMs) 在处理特定应用场景问题时,检索到的信息能够提高模型的性能,并且不会损害性能。该研究分析了五个开放领域问答基准,并提出了两种方法以 - RA-DIT: 检索增强的双指令调整
Retrieval-augmented language models can be enhanced through a lightweight fine-tuning methodology called RA-DIT, which e - 自检索的长距离语言建模
本文中,我们提出了一种用于从头开始联合训练检索增强语言模型的架构和训练流程,名为 Retrieval-Pretrained Transformer(RPT),并使用四个长程语言建模任务进行了评估,横跨图书、代码和数学写作,证明了与强基线相比 - KNN-LM 不会改善开放式文本生成
研究插值检索增强语言模型的生成质量,插值检索增强的语言模型通过使用给定前缀的最相关检索进行插值来预测下一个词的分布,发现这种方法对于母猪鼻子的下一个词比较准确,但对于开放式的文本生成质量并没有相应的改善,同时发现对于模型生成的文本作为查询时