置信度感知的多字段模型校准
本文提出了一种新的评估指标,称为 “field-level calibration error”,用于衡量决策者关注的敏感输入领域中预测偏差,提出了一种名为神经校准的后续校准方法,使用验证集中的领域感知信息进行校准,并通过实验证明其对常见度量(如负对数似然、布里尔分数和 AUC)以及所提出的 “field-level calibration error” 指标的校准性能得到了显著提高。
May, 2019
通过 AdaCalib 模型的双重适应方法,我们可以根据后验统计信息学习保序函数族,进行精细校准,并确保后验概率适合于校准的场值。实验证明,AdaCalib 在校准性能上获得了显著的提高,可在线部署并超越先前的方法。
May, 2022
在电子商务广告中,准确估计点击率(CTR)和转化率(CVR)的真实概率(称为校准估计)对买家、卖家和平台的利益至关重要。本研究提出了一种名为深度集成形状校准(DESC)的新方法,通过结合基础校准函数增强函数表达能力和数据利用能力,解决了多场景校准中的数值校准和形状校准的问题。
Jan, 2024
本文研究二元分类器中的置信度值使用,发现对于决策者来说确定何时信任预测很困难,提出了置信度值与决策者自身置信度一致时决策最优且易于发现,提出了多重校准并验证其有效性在 AI 辅助决策场景中。
May, 2023
我们提出了一种基于多类对齐预测均值置信度和预测确定度(MACC)的新的训练时校准方法,通过鼓励模型在预 softmax 分布中提供低(或高)扩散,从而达到了领域内和领域外预测的最先进校准性能。
Sep, 2023
该研究旨在提出一种更好的置信度校准指标 —MacroCE,该指标能更好地捕捉模型给出正确预测时高信心和给出错误预测时低信心的情况,并针对开放领域问答的实际应用,提出了新的校准方法 ConsCal,该方法不仅考虑模型的最终预测,还考虑了多个模型检查点的一致性预测,提供了一种全新的校准视角、新的指标以及根据指标提出了更加有效的校准方法。
May, 2022
提出一种使用超球空间和重新平衡的准确性 - 不确定性损失来解决置信度校准问题的模型,通过在超球空间上投影标签向量来生成密集的标签表示矩阵,同时对不同准确性和不确定性的样本进行重新平衡来更好地指导模型训练,实验表明该模型优于现有校准方法,并在校准指标上取得了显著提高。
Mar, 2022
研究表明,机器学习模型的置信度校准常常忽略距离偏差问题,即在低接近度数据(即分布稀疏的区域)上比在高接近度样本上更容易过度自信,进而导致不一致的误校准。基于此,该研究提出了一种名为 ProCal 的插件式算法,具有调整样本置信度的理论保障。结果表明,ProCal 在各种模型结构下在平衡、长尾和分布偏移情况下都能有效缓解距离偏差问题并改善校准。
Jun, 2023
在安全关键应用的不确定性量化和决策中,概率模型的校准至关重要,在存在最小协变量转移时,针对校准的问题已受到广泛研究,我们提出了一种基于重要性采样的方法来解决这个问题,并在真实数据集和合成数据集上评估和讨论了我们的方法的有效性。
Jun, 2020
本文提出了一种新的概念 —— 决策校准,指预测分布与真实分布在一组决策者下是 “不可区分的”。在选择有界行动的决策者的情况下,作者设计了一种重新校准算法,其样本复杂度多项式时间,并在皮肤病和 ImageNet 分类等领域中验证了该算法的有效性。
Jul, 2021