随机近端 AUC 最大化
本研究提出了一种在深度神经网络中进行随机 AUC 最大化的算法,利用了 Polyak-LŁojasiewicz 条件发展了新的随机算法,获得更快的收敛率和更实际的步长方案,通过实验结果证明了算法的有效性。
Aug, 2019
本文概述了过去 20 年中与 AUC 最大化相关的文献,不仅提供全面的文献综述,还从公式到算法和理论保证提供了详细的解释和比较,并对深度学习 AUC 最大化的剩余和新兴问题进行了讨论。提供未来工作的建议。
Mar, 2022
本文提出了一种基于非凸凹重构的 AUC 最大化的通信高效分布式优化算法,通过减少通信轮次提高了算法的并行性能,并在多个测试数据集中展示了其有效性和可靠性。
May, 2020
本文提出一种基于 AUPRC pipeline 的技术方法,采用 SOAP 采样算法来提高分类性能,并利用最新的随机组合优化技术进行优化。该方法在图像和图形数据集上的实验结果表明,在 AUPRC 方面,我们的方法优于先前的方法。这是首次尝试通过证明收敛性来优化 AUPRC。
Apr, 2021
通过提出一种高效的算法 AUC-opt 来寻找证明最优 AUC 的线性分类器,并且证明问题在一定条件下是 NP 完全的;此算法在实验中证明相较于其他方法有所改善,但在大多数测试数据中表现并不如标准分类器。
Jun, 2023
通过最大化模型在数据集上的 AUC 分数,Deep AUC Maximization(DAM)成为一种学习深度神经网络的新范例。本文提出了一种基于边缘的最小 - 最大代理损失函数 AUC margin loss,并在医学图像分类任务中实现了更高的性能。
Dec, 2020
本文提供了用于鉴定基于替代损失函数的学习方法渐近一致性的充分条件,并证明了指数损失和逻辑损失与 AUC 一致,但铰链损失是不一致的。基于这个结果,本文还推导了一些与 AUC 一致的损失函数,进一步揭示了指数损失和逻辑损失的相容界限以及在非噪声设置下许多替代损失函数的相容界限,并发现 AdaBoost 和 RankBoost 具有相同的指数代理损失。
Aug, 2012
本文提出了一种新的半监督 AUC 优化方法,不需要强限制假设,其基于正例和未标记数据的 AUC 优化方法(PU-AUC),并将其与监督 AUC 优化方法结合来实现半监督学习,理论证明了未标记数据对于 PU 和半监督 AUC 优化方法的泛化性能的改善有帮助,并通过实验证明了所提出方法的实用性。
May, 2017