本文探究了语言模型在解释和生成不确定表达时的行为,并发现当模型以确定性的语言输出时,模型的准确性会有所下降。这些结果突显了建立有能力解释和生成可信任的不确定表达的语言模型的挑战。
Feb, 2023
利用贝叶斯决策理论的视角,本研究通过假设我们的效用是通过比较生成的回答和理论上的真实回答的相似度来衡量,从而解决了大语言模型生成自由形式回答时的不确定性量化问题。我们进一步从缺失数据的角度推导出一种表征为过量风险的认知不确定性衡量方法。所提出的方法可以应用于黑盒语言模型,并在问答与机器翻译任务上展示了如何从 GPT 和 Gemini 模型中提取具有广泛意义的不确定性估计并量化它们的校准度。
Jun, 2024
探究了 GPT-3 的 few-shot 学习的不稳定性,发现这种不稳定性来自于语言模型偏向性,经过文本校准,这种偏向得到了有效的改善,平均准确率可以提高 30%。
Feb, 2021
该论文评估了语言和视觉 - 语言模型的可靠性,并提出了新的日本不确定场景数据集以及测量校准误差的方法。结果表明,语言和视觉 - 语言模型都存在较高的校准误差,并且大部分时间都表现出过度自信,说明其对不确定性估计的能力较弱。此外,研究还发展了回归任务的提示方法,并证明视觉 - 语言模型在生成均值 / 标准差和 95% 置信区间时存在校准不良。
May, 2024
通过大型语言模型中的线性探针和无监督方法,研究确定性认知不确定性与随机认知不确定性的可行性,为多样化实际场景中模型置信度提供更详细的指标。
Feb, 2024
用统计的方法对 GPT-4 等大型语言模型进行估测不确定性的研究发现,虽然 GPT-4 在一些英文词组中与人类的估测结果接近,但在涉及到性别角色和中文语境时存在差异,证明人类与大型语言模型的估测结果尚有较大难以弥合的差距。
语言模型相对于人类生成的文本是否准确地表达语言变异性,以及 GPT2、BLOOM 和 ChatGPT 在从统计层面上评估这种能力时的失调问题和预期校准误差的失效问题。
我们提出使用基于注意机制的特征,将 XGBoost 模型应用于 BERT,以输出更正概率,从而避免误导学生。我们的假设是注意力流中包含的不确定性水平与模型回答的质量相关。
Aug, 2023
维护用户信任的关键是通过使用含糊概率,提高大型语言模型的置信度估计;此外,使用语言置信度和替代模型概率的组合方法在评估置信度时表现出色。
Nov, 2023
在这项研究中,我们尝试量化大型语言模型(LLM)解释的不确定性。为此,我们提出了两个新的度量标准 ——“口头化不确定性” 和 “探测不确定性”,用于量化生成解释的不确定性。我们的实证分析揭示了口头化不确定性不是可靠的解释置信度的估计,而探测不确定性的估计与解释的忠实度相关,较低的不确定性对应于较高的忠实度。这项研究为量化 LLM 解释的不确定性带来了洞察,有助于更广泛地探讨基础模型的可靠性。