May, 2024

核心语言熵:基于语义相似性的 LLMs 细粒度不确定性量化

TL;DR在大型语言模型中,不确定性量化对于关系到安全性和可靠性的应用至关重要。我们提出了 Kernel Language Entropy(KLE),这是一种用于估计白盒和黑盒语言模型中不确定性的新方法,它能够捕捉到模型输出的语义不确定性,并通过 von Neumann 熵来量化不确定性。实验证明,KLE 在多个自然语言生成数据集和语言模型架构上提供了更好的不确定性量化性能。