Mar, 2025

大型语言模型的幻觉可用性?基于大型语言模型的负向推理用于假新闻检测

TL;DR本研究探讨了大型语言模型(LLM)产生的知识幻觉在假新闻检测中的可用性,填补了相关研究的空白。我们提出了一种新的监督自我增强推理纠正方法SR$^3$,通过语义一致性学习生成合理推理和错误理解,并构建了基于负向推理的新闻学习模型NRFE。实验结果表明,该方法在假新闻检测上优于多种基线方法,展示了其显著的提升潜力。