深入实验和分析,提出了温度缩放法的简单有效性,可以解决现代神经网络中分类器的置信度校准问题。
Jun, 2017
本文探讨贝叶斯方法在不确定性问题上的推理方法,提出一种简单有效的校准程序,可以保证在足够的数据下,任何回归算法都能够产生准确的校准不确定性估计,并应用于贝叶斯线性回归、前向和递归神经网络中,能够稳定输出准确的区间预测,并提高时间序列预测和基于模型的强化学习性能。
Jul, 2018
本文通过最大实证研究来评估神经网络的概率校准和比较多种校准方法,并发现正则化方法在概率校准和锐度之间提供有利的权衡,而修正方法具有更好的概率校准。同时,我们还展示了分位数校准可以被视为一种特定的修正方法,并论证了修正方法的概率校准优势来自于有限样本覆盖的保障。
Jun, 2023
通过将后续校准嵌入到训练过程中,我们提出了一种名为量位数校准训练的新型端到端模型训练方法,该方法直接在训练过程中进行校准,无需额外参数,并且演示了其在大规模实验中在提高预测准确性的同时保持校准的性能。
Mar, 2024
本文研究了神经网络模型的预测不确定性及其校准问题,并发现不使用卷积层的最新模型的校准性能最好,模型大小和预训练量并不能完全解释这些差异,表明模型架构是影响校准性能的主要因素。
Jun, 2021
该论文研究了神经网络中置信度校准的问题,并提供了校准方法的经验比较,分析了可视化和标量测量评估模型置信度校准的不同方法,并对基于后处理或对训练进行更改的现代校准技术进行了评估,实验结果覆盖了各种数据集和模型,比较了不同标准下的校准方法。
Mar, 2023
提出了一种调整分类器置信度估计的方法,使其接近正确分类的概率,该方法利用了潜在高斯过程的非参数表示,并针对多类分类进行了特别设计,适用于任何输出置信度估计的分类器,不限于神经网络,实验证明其性能强。
Jun, 2019
通过 AdaCalib 模型的双重适应方法,我们可以根据后验统计信息学习保序函数族,进行精细校准,并确保后验概率适合于校准的场值。实验证明,AdaCalib 在校准性能上获得了显著的提高,可在线部署并超越先前的方法。
May, 2022
本文提出了一种新的评估指标,称为 “field-level calibration error”,用于衡量决策者关注的敏感输入领域中预测偏差,提出了一种名为神经校准的后续校准方法,使用验证集中的领域感知信息进行校准,并通过实验证明其对常见度量(如负对数似然、布里尔分数和 AUC)以及所提出的 “field-level calibration error” 指标的校准性能得到了显著提高。
May, 2019
我们提出了一种原生的多类别校准方法,适用于来自任何模型类的分类器,来源于狄利克雷分布并推广了来自二元分类的贝塔校准方法。“通过实验,证明改进了概率预测。
Oct, 2019