优化AUC是否划算?
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与AUC一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与AUC一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪声设置下许多替代损失函数的相容界限,并发现AdaBoost和RankBoost具有相同的指数代理损失。
Aug, 2012
本文提出了一种新的半监督AUC优化方法,不需要强限制假设,其基于正例和未标记数据的AUC优化方法(PU-AUC),并将其与监督AUC优化方法结合来实现半监督学习,理论证明了未标记数据对于PU和半监督AUC优化方法的泛化性能的改善有帮助,并通过实验证明了所提出方法的实用性。
May, 2017
本文概述了过去20年中与AUC最大化相关的文献,不仅提供全面的文献综述,还从公式到算法和理论保证提供了详细的解释和比较,并对深度学习AUC最大化的剩余和新兴问题进行了讨论。提供未来工作的建议。
Mar, 2022
本文提出了一种模型不可知的方法,将一个选择函数与给定的概率二元分类器相关联,以最优化AUC,并且通过使用AUCROSS算法来取得成功,从而在交换覆盖率和AUC之间达到最佳平衡。
Oct, 2022
本文提出了基于自适应采样的均衡自适应度量学习(BSPML)算法,该算法采用去噪多相似度计算,并将噪声样本作为极其困难的样本,并根据样本权重自适应删除样本以提高模型的稳健性和泛化能力。
Nov, 2022
本文研究如何从多个未标注数据集中构建一个AUC优化模型,提出了一种称为U^m-AUC的方法,将U^m数据转化为多标签AUC优化问题,可以有效地进行理论与实证研究。
May, 2023
我们提供了一种基于二元矩阵因子分解模型的评估指标,通过一维向量表示来总结多类别分类的对比真阳性率和假阳性率,从而提供了多类别情况下的ROC曲线,并通过对这些分解向量的积分得出了对分类器性能的二元AUC等效总结。
Apr, 2024
本研究针对二元分类和变点检测中使用ROC曲线评估的困难,提出了一种利用假阳性和假阴性率的可微替代函数AUM来优化线性模型的方案。研究显示,提出的线搜索算法在时间复杂度上与常量步长的梯度下降相同,但能够有效计算AUM/AUC与步长的完整关系,实证结果表明其在准确性和速度方面均优于传统方法。
Oct, 2024