通过后续逻辑归一化和温度缩放改善深度神经网络的选择分类表现
本文提出 Logit Normalization 方法,通过约束神经网络输出的 logits 向量的范数,以减少 out-of-distribution 数据的高置信度问题,并在常见基准测试中取得高度可分辨的置信度分数。
May, 2022
我们提出了一种原生的多类别校准方法,适用于来自任何模型类的分类器,来源于狄利克雷分布并推广了来自二元分类的贝塔校准方法。“通过实验,证明改进了概率预测。
Oct, 2019
本文提出了一种新的参数化温度缩放(Parametrized Temperature Scaling, PTS)方法,以解决深度神经网络预测不确定性校准问题。作者发现,标准的后处理校准器受限于其内在表达能力,为此他们基于神经网络计算预测特定的参数化温度,并在大量的实验中证明了这种方法比现有算法更为准确和有效。
Feb, 2021
在低资源环境下,本研究通过对预训练模型应用后验置信度估计方法,旨在解决语义分割中的分布偏移问题,并通过对三个医学影像任务进行实验,证明了后验置信度估计方法降低分布偏移影响的有效性。
Feb, 2024
本研究探讨神经网络在预测远离训练数据分布的数据时,未能增加其不确定性的现象,并找出了两种隐含的偏见,从而鼓励 softmax 置信度与认识不确定性相关,并发现预训练 / 微调网络可以减少训练数据和超出分布数据之间的重叠。
Jun, 2021
通过元集合级联温度回归方法,本文提出了一种新颖的事后校准方法,通过对验证集上的数据增强模拟不同领域的转变,为不同的测试集定制细粒度的缩放函数,捕捉多样化的不确定性,并通过回归网络学习得到类别特定和置信度特定的缩放,实现元集合之间的校准。通过在 MNIST、CIFAR-10 和 TinyImageNet 上进行广泛的实验证明了该方法的有效性。
Feb, 2024
大型语言模型在多项选择问答任务中的最大 softmax 概率 (MSP) 与正确答案相比与错误答案相关性强,对问答任务表现优异的模型的 MSP 生成的 AUROC 在 59/60 情况中高于随机概率,并在最佳的六个模型中 AUROC 平均为 60% 到 69%。通过基于初始模型响应的 MSP 有选择地弃权,提出了一种能提高性能的多项选择问答任务。同样,我们使用预修正前 logit 进行了相同的实验,并获得了类似 (但不完全相同) 的结果。
Feb, 2024
我们提出了一种基于 logits 的方法 MaNo,通过对 logits 进行数据依赖的归一化来减少预测偏差,并将归一化 logits 的矩阵的 Lp 范数作为评估分数,我们在多个架构上进行了广泛的实证研究并证明 MaNo 在合成、自然或亚种群变化下实现了最先进的性能。
May, 2024