基于实体的问答中的知识冲突
本论文探讨了问题回答模型如何使用丰富的知识源,同时我们模拟了知识冲突并发现检索性能对模型所依赖的知识源有很大影响,我们发现当前的模型大多依赖非参数化知识。为解决此问题,我们在本论文中提出了一项新的校准研究,以避免在检索出多个冲突答案选项时,让模型给出任何单一答案。
Oct, 2022
该研究提出了一种新的 QA(Question Answering)模型范式,通过引入反事实数据增强的方式,使模型能够预测基于给定语境知识和基于参数化知识的两种答案,从而改善模型的鲁棒性和生成有用的无关答案。
Nov, 2022
大型语言模型(LLMs)在识别知识冲突方面表现良好,但在确定具体的冲突知识并在相冲突的信息中给出不同的答案方面存在困难。为了解决这些问题,我们提出了一种基于指令的方法来增强 LLMs 以更好地实现这三个目标。进一步的分析显示,解决知识冲突的能力受到知识领域和提示文本等因素的巨大影响,而生成对知识冲突场景的稳健响应仍然是一个开放性的研究问题。
Oct, 2023
介绍一种名为 MixAlign 的框架,通过与用户和知识库的交互来消除语言模型生成虚假和不支持的响应。MixAlign 利用语言模型实现自动问题 - 知识对齐,并在必要时通过人工用户澄清来进一步增强对齐,从而缓解了语言模型幻觉问题,并在实验中取得了显著改进。
May, 2023
通过对大型语言模型(LLMs)的知识冲突进行深入分析,本调查报告重点研究了它们在融合上下文和参数化知识时所面临的复杂挑战。我们关注三类知识冲突:上下文 - 记忆、不同上下文之间和内部记忆冲突。这些冲突会严重影响 LLMs 的可信度和性能,尤其是在噪声和错误信息普遍存在的实际应用中。通过对这些冲突进行分类、探索其原因、研究 LLMs 在这些冲突下的行为以及回顾现有解决方案,本调查旨在为改善 LLMs 的鲁棒性提供策略,并成为推动这一发展领域研究的宝贵资源。
Mar, 2024
通过构建参数化知识图和引入外部知识,系统地研究了大型语言模型 (LLMs) 在与用户互动时,外部知识如何干扰其参数化知识;结果显示,LLMs 在遇到直接冲突或混淆信息时容易产生与其参数化知识不符的回复,暴露了整合外部知识时产生幻觉的风险。
Sep, 2023
本文通过反事实推理方法分析了幻觉问题背后的因果关系,提出了一种可能的解决方案,即通过利用对话 - 知识交互来减轻幻觉,在不影响对话性能的同时适应不同的生成模型。希望我们的努力能够支持并呼吁更多重视开发轻量级技术以实现强大可靠的对话系统。
Apr, 2024
这篇论文研究了知识驱动的对话模型中的幻觉问题,通过广泛的人类研究发现标准测试数据集中有超过 60%的幻觉响应,导致模型产生幻觉现象。提出了关于训练数据和模型质量的重要问题,并为未来的研究提供了公开的批注。
Apr, 2022