Oct, 2023

评估大型语言模型知识的可靠性

TL;DR本文提出了一种名为MONITOR的新度量方法,用于直接衡量大型语言模型的事实可靠性,通过计算有效输出与同一模型使用不同类型提示和上下文进行探索所产生的对应输出之间的概率分布距离来评估模型的一致性。实验证明MONITOR对于评估大型语言模型的事实可靠性具有良好的效果,并且计算开销较低。此外,作者还发布了包含210,158个提示的FKTC测试集,以促进相关研究的开展。