Dec, 2023
不要完全相信所读之事:通过对大型语言模型中幻觉的自动识别来增强摘要解释性
Don't Believe Everything You Read: Enhancing Summarization
Interpretability through Automatic Identification of Hallucinations in Large
Language Models
TL;DR这篇论文通过深入探讨大型语言模型在幻觉方面的行为,定义了一种基于标记的方法以识别不同类型的幻觉,并进一步利用这种标记方法提高对话摘要任务中语言模型的可解释性和忠实度,同时提出了一个新的改进数据集和训练范式。