Mar, 2025
交叉审查者:评估大型语言模型生成解释的一致性
Cross-Examiner: Evaluating Consistency of Large Language Model-Generated
Explanations
Danielle Villa, Maria Chang, Keerthiram Murugesan, Rosario Uceda-Sosa, Karthikeyan Natesan Ramamurthy
TL;DR本文解决了大型语言模型生成的解释可能误导用户真实推理过程的问题。提出了一种新的方法交叉审查者,通过结合符号信息提取与语言模型驱动的问题生成,生成更优质的后续问题。研究发现,该方法在灵活性和后续问题的多样性上优于现有方法,具有重要的潜在影响。