微调语言模型以生成不确定性语言表达
该研究探讨了基于黑盒LLMs的自然语言生成的不确定性计量,提出几个置信度/不确定度统计度量标准,并发现语义分散的平均值可以作为评估LLMs响应质量的可靠指标。
May, 2023
本研究通过研究生成不平等性如何影响不确定性估计,提出了将注意力转移到更相关的组件来处理生成不平等性的方法,通过在各种自由形式的问答任务中进行实验,证明了该方法的优越性。
Jul, 2023
通过引入一种不确定性感知的上下文学习框架,我们改进了大规模语言模型的响应质量,并过滤掉具有较高不确定性的答案,从而提高了模型的准确性。
Oct, 2023
在这项研究中,我们尝试量化大型语言模型(LLM)解释的不确定性。为此,我们提出了两个新的度量标准——“口头化不确定性”和“探测不确定性”,用于量化生成解释的不确定性。我们的实证分析揭示了口头化不确定性不是可靠的解释置信度的估计,而探测不确定性的估计与解释的忠实度相关,较低的不确定性对应于较高的忠实度。这项研究为量化LLM解释的不确定性带来了洞察,有助于更广泛地探讨基础模型的可靠性。
Nov, 2023
通过使用标记的数据集,本文研究了针对大型语言模型(LLMs)的不确定性估计和校准问题,提出了一个监督学习方法来估计LLMs响应的不确定性,并展示了利用隐藏激活对不同任务进行增强不确定性估计的好处和在超出分布范围的情况下的鲁棒性,同时区分了不确定性估计任务和不确定性校准任务,并表明更好的不确定性估计模式会导致更好的校准性能。
Apr, 2024
在大型语言模型中,不确定性量化对于关系到安全性和可靠性的应用至关重要。我们提出了Kernel Language Entropy(KLE),这是一种用于估计白盒和黑盒语言模型中不确定性的新方法,它能够捕捉到模型输出的语义不确定性,并通过von Neumann熵来量化不确定性。实验证明,KLE在多个自然语言生成数据集和语言模型架构上提供了更好的不确定性量化性能。
May, 2024
我们在大型语言模型中探索不确定性量化,旨在确定查询结果的不确定性何时较大。我们同时考虑认识论不确定性和偶然性不确定性,从中推论出一种信息论度量,可可靠地检测只有认识论不确定性较大的情况,从模型的输出中可以仅通过一些特殊的迭代提示来计算。这种量化可以检测出幻觉,在单答案和多答案响应中均适用。与许多标准的不确定性量化策略(例如,将响应的对数似然度阈值化)不同,无法检测到多答案情况下的幻觉。我们进行了一系列实验证明了我们的公式的优势。此外,我们的研究还揭示了大型语言模型给定输出的概率如何通过迭代提示来放大,这可能具有独立的研究价值。
Jun, 2024