本文提出一种基于 AUPRC pipeline 的技术方法,采用 SOAP 采样算法来提高分类性能,并利用最新的随机组合优化技术进行优化。该方法在图像和图形数据集上的实验结果表明,在 AUPRC 方面,我们的方法优于先前的方法。这是首次尝试通过证明收敛性来优化 AUPRC。
Apr, 2021
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与 AUC 一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与 AUC 一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪声设置下许多替代损失函数的相容界限,并发现 AdaBoost 和 RankBoost 具有相同的指数代理损失。
Aug, 2012
本文提出了一种新的替代损失函数来优化 AUC,避免了训练数据之间的成对比较,具有线性的时间和存储复杂度,并对在线学习和批处理算法进行实验以说明其有效性。
Apr, 2018
本文概述了过去 20 年中与 AUC 最大化相关的文献,不仅提供全面的文献综述,还从公式到算法和理论保证提供了详细的解释和比较,并对深度学习 AUC 最大化的剩余和新兴问题进行了讨论。提供未来工作的建议。
Mar, 2022
本文提出了一种新颖的随机近端算法来最大化 ROC 曲线下方区域(AUC),并在各种应用领域的基准数据集上进行了广泛的实验,证明了该算法优于现有的 AUC 最大化算法。
Jun, 2019
本文提出了一种新的功能表示方法,用于解决在使用大批量学习场景下原始学习算法太慢的问题,并在监督二分类问题的实验中表明了这种方法对于不平衡的数据集能够获得更高的 AUC 值,并且可以使用比之前方法更大的批量大小。
Feb, 2023
本文提出 PDAOM 损失函数,通过在子批次中构建困难的二元对表达式,实现对 AUC 的直接优化,使得训练与评估之间的差距变小,并用于提高美团推荐系统的在线点击率和订单量。
Apr, 2023
ML 模型的尺寸和复杂性在过去十年中迅速增长,但评估其性能的方法未能跟上步伐。然而,我们认为仅考虑来自测试 ROC 曲线的得分只能对模型的性能和泛化能力提供有限的见解。
Dec, 2023
通过提出一种高效的算法 AUC-opt 来寻找证明最优 AUC 的线性分类器,并且证明问题在一定条件下是 NP 完全的;此算法在实验中证明相较于其他方法有所改善,但在大多数测试数据中表现并不如标准分类器。
Jun, 2023
通过最大化模型在数据集上的 AUC 分数,Deep AUC Maximization(DAM)成为一种学习深度神经网络的新范例。本文提出了一种基于边缘的最小 - 最大代理损失函数 AUC margin loss,并在医学图像分类任务中实现了更高的性能。
Dec, 2020