Nov, 2023
大型语言模型的自然语言解释的不确定性量化
Quantifying Uncertainty in Natural Language Explanations of Large
Language Models
TL;DR在这项研究中,我们尝试量化大型语言模型(LLM)解释的不确定性。为此,我们提出了两个新的度量标准——“口头化不确定性”和“探测不确定性”,用于量化生成解释的不确定性。我们的实证分析揭示了口头化不确定性不是可靠的解释置信度的估计,而探测不确定性的估计与解释的忠实度相关,较低的不确定性对应于较高的忠实度。这项研究为量化LLM解释的不确定性带来了洞察,有助于更广泛地探讨基础模型的可靠性。