DRAUC: 一种基于实例的分布鲁棒 AUC 优化框架
通过最大化模型在数据集上的 AUC 分数,Deep AUC Maximization(DAM)成为一种学习深度神经网络的新范例。本文提出了一种基于边缘的最小 - 最大代理损失函数 AUC margin loss,并在医学图像分类任务中实现了更高的性能。
Dec, 2020
本文提出了一种新颖的随机近端算法来最大化 ROC 曲线下方区域(AUC),并在各种应用领域的基准数据集上进行了广泛的实验,证明了该算法优于现有的 AUC 最大化算法。
Jun, 2019
本文概述了过去 20 年中与 AUC 最大化相关的文献,不仅提供全面的文献综述,还从公式到算法和理论保证提供了详细的解释和比较,并对深度学习 AUC 最大化的剩余和新兴问题进行了讨论。提供未来工作的建议。
Mar, 2022
本文研究了在长尾数据集上进行对抗训练的问题,提出了一种基于 AUC 优化的方法,并通过正则化和梯度计算解决了目标函数中正负样本紧密耦合的问题。实验结果表明该方法在长尾数据集上表现出色。
Jun, 2022
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与 AUC 一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与 AUC 一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪声设置下许多替代损失函数的相容界限,并发现 AdaBoost 和 RankBoost 具有相同的指数代理损失。
Aug, 2012
通过提出一种高效的算法 AUC-opt 来寻找证明最优 AUC 的线性分类器,并且证明问题在一定条件下是 NP 完全的;此算法在实验中证明相较于其他方法有所改善,但在大多数测试数据中表现并不如标准分类器。
Jun, 2023
本文提出了一种模型不可知的方法,将一个选择函数与给定的概率二元分类器相关联,以最优化 AUC,并且通过使用 AUCROSS 算法来取得成功,从而在交换覆盖率和 AUC 之间达到最佳平衡。
Oct, 2022
本文提出 PDAOM 损失函数,通过在子批次中构建困难的二元对表达式,实现对 AUC 的直接优化,使得训练与评估之间的差距变小,并用于提高美团推荐系统的在线点击率和订单量。
Apr, 2023