基于等变性的幻觉理论
本文提出使用探测方法从模型结构的角度研究机器翻译中幻觉翻译的存在原因,实验发现,幻觉翻译通常伴随缺陷的编码器,特别是嵌入和脆弱的交叉关注,而交叉关注有助于减轻编码器引起的某些错误。
Jun, 2022
本文研究了神经机器翻译中的幻觉问题,提出了一种基于不确定性的检测方法,并探究了DeHallucinator方法在测试阶段缓解幻觉的效果。此外,作者还发布了一个标注数据集用于未来研究。
Aug, 2022
提出了一种通过评估翻译中源语言贡献百分比的方法,以解决神经机器翻译中出现的幻觉问题,并发现使用跨语言嵌入的句子相似性有助于提高检测精度。
Dec, 2022
本文调查了近期关于大型语言模型(LLMs)幻觉的检测、解释和缓解的努力,并着重讨论了LLMs所带来的独特挑战,提出了LLM幻觉现象的分类和评估基准,并分析了现有的缓解LLM幻觉方法,探讨了未来研究的潜在方向。
Sep, 2023
通过结合幻觉水平量化和幻觉原因调查的关联分析,我们能够观察到每个风险因素的每个值下的幻觉水平,检查每个风险因素的贡献和统计显著性,同时排除其他因素的混淆效应,进一步揭示大型语言模型中常识记忆、关系推理和指令遵循等潜在缺陷,为预训练和监督微调过程提供指导,以减轻幻觉问题。
Sep, 2023
在这份调查中,我们旨在对大型语言模型(LLM)幻像领域的最新进展进行全面而深入的概述。我们从LLM幻像创新分类入手,然后深入探讨了导致幻像的因素。接下来,我们全面介绍了幻像检测方法和基准。此外,我们还相应介绍了用于减轻幻像的代表性方法。最后,我们分析了突出当前限制的挑战,并制定了未来LLM幻像研究的开放问题,旨在描绘发展方向。
Nov, 2023
我们的研究旨在探索语言模型(LMs)产生非事实幻觉的机制原因,并通过因果中介分析和嵌入空间投影,确定了两种普遍的机制原因:1)较低层MLPs中主语属性知识不足,2)较高层attention heads和MLPs中无法正确选择客体属性。通过对LM预训练检查点的审查,我们揭示了这两种幻觉机制原因的不同学习动态,并强调从因果分析中得出的属性特征可以有效构建幻觉检测器。我们的工作为LM事实错误提供了机制性理解。
Mar, 2024
本研究探索了通过比较生成文本与事实参考之间的语义相似性以及互相评判的语言模型集成方法来检测虚构的方法,并指出了虚构检测的挑战以及进一步研究的必要性。
Apr, 2024
通过对103篇NLP研究的批判性审查,我们调查了大型语言模型中幻觉的特点;通过对社会学和技术文献的全面审阅,我们发现了对“幻觉”一词缺乏共识;此外,我们对171名NLP和AI领域的从业者进行了一项调查,以了解对幻觉的不同观点;我们的分析强调了在NLP中明确定义和框架定位幻觉的必要性,突出了可能的挑战,而我们的调查结果提供了对幻觉对社会影响和后果的主题性理解。
Apr, 2024
本研究针对语言模型的幻觉问题,特别是训练集中的正确答案如何影响幻觉现象。通过构建知识图谱数据集并训练不同规模的语言模型,发现更大的模型和更长的训练时间会降低幻觉发生率,但要实现较低的幻觉率需要显著更大的模型和计算成本。此外,研究还揭示了语言模型的规模与幻觉可检测性之间的逆向关系。
Aug, 2024