Nov, 2024
解码提示:当大型语言模型遇到错误前提时减少幻觉
DecoPrompt : Decoding Prompts Reduces Hallucinations when Large Language
Models Meet False Premises
TL;DR本研究探讨大型语言模型(LMs)在遇到错误前提时容易产生偏离事实的幻觉输出的问题。我们提出了一种新的提示算法“解码提示(DecoPrompt)”,旨在通过解码错误前提提示以减少幻觉的生成。实验结果表明,DecoPrompt能够有效降低不同LMs输出的幻觉,并展现出跨模型的可移植性,为大型语言模型应用提供了新的思路。