Feb, 2024

通过多智能体辩论实现忠实可解释的事实核查

TL;DR我们的研究调查了大型语言模型生成解释的能力,发现零样本提示通常导致不忠实的结果。为了解决这些挑战,我们提出了多代理辩论修正(MADR)框架,利用多个具有不同角色的大型语言模型作为代理,在迭代的修饰过程中提高了生成解释的忠实性。MADR 确保最终的解释经过严格验证,显著降低了不忠实元素的可能性,并与提供的证据紧密相符。实验证明,MADR 显著提高了大型语言模型生成解释与证据的忠实性,提升了这些解释的可信度和可靠性。