一元 ROC 曲线下面积的界
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与 AUC 一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与 AUC 一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪声设置下许多替代损失函数的相容界限,并发现 AdaBoost 和 RankBoost 具有相同的指数代理损失。
Aug, 2012
通过提出一种高效的算法 AUC-opt 来寻找证明最优 AUC 的线性分类器,并且证明问题在一定条件下是 NP 完全的;此算法在实验中证明相较于其他方法有所改善,但在大多数测试数据中表现并不如标准分类器。
Jun, 2023
本文概述了过去 20 年中与 AUC 最大化相关的文献,不仅提供全面的文献综述,还从公式到算法和理论保证提供了详细的解释和比较,并对深度学习 AUC 最大化的剩余和新兴问题进行了讨论。提供未来工作的建议。
Mar, 2022
本文提出了一种新颖的随机近端算法来最大化 ROC 曲线下方区域(AUC),并在各种应用领域的基准数据集上进行了广泛的实验,证明了该算法优于现有的 AUC 最大化算法。
Jun, 2019
本文提出了一种模型不可知的方法,将一个选择函数与给定的概率二元分类器相关联,以最优化 AUC,并且通过使用 AUCROSS 算法来取得成功,从而在交换覆盖率和 AUC 之间达到最佳平衡。
Oct, 2022
本文提出了一种新的功能表示方法,用于解决在使用大批量学习场景下原始学习算法太慢的问题,并在监督二分类问题的实验中表明了这种方法对于不平衡的数据集能够获得更高的 AUC 值,并且可以使用比之前方法更大的批量大小。
Feb, 2023
本文提出了一种新的半监督 AUC 优化方法,不需要强限制假设,其基于正例和未标记数据的 AUC 优化方法(PU-AUC),并将其与监督 AUC 优化方法结合来实现半监督学习,理论证明了未标记数据对于 PU 和半监督 AUC 优化方法的泛化性能的改善有帮助,并通过实验证明了所提出方法的实用性。
May, 2017
基于分布鲁棒的面积下 ROC 曲线 (DRAUC) 的模型优化框架,解决了长尾分类情景下训练和测试样本分布差异以及标签偏差的问题。
Nov, 2023
本文研究如何从多个未标注数据集中构建一个 AUC 优化模型,提出了一种称为 U^m-AUC 的方法,将 U^m 数据转化为多标签 AUC 优化问题,可以有效地进行理论与实证研究。
May, 2023