Large Language Models (LLMs) have demonstrated remarkable proficiency in various Natural Language Generation (NLG) tasks. Previous studies suggest that LLMs' generation process involves uncertainty. However, exis
在大型语言模型中,不确定性量化对于关系到安全性和可靠性的应用至关重要。我们提出了Kernel Language Entropy(KLE),这是一种用于估计白盒和黑盒语言模型中不确定性的新方法,它能够捕捉到模型输出的语义不确定性,并通过von Neumann熵来量化不确定性。实验证明,KLE在多个自然语言生成数据集和语言模型架构上提供了更好的不确定性量化性能。