AUC 两两优化的一致性
本文提出使用一种广泛的强适当损失类来实现针对二分排序问题的非两两代理规则界限,并通过最近的结果进一步获得了低噪声条件下的更紧密的代理规则界限。
Jul, 2012
本文提出一种基于AUPRC pipeline的技术方法,采用SOAP采样算法来提高分类性能,并利用最新的随机组合优化技术进行优化。该方法在图像和图形数据集上的实验结果表明,在AUPRC方面,我们的方法优于先前的方法。这是首次尝试通过证明收敛性来优化AUPRC。
Apr, 2021
本文主要研究代理损失估计误差及其保证方法,提供零一损失和对抗性损失两种情况下的具体保证方法,并通过模拟实验证明了其紧密性。
May, 2022
本文提出了基于自适应采样的均衡自适应度量学习(BSPML)算法,该算法采用去噪多相似度计算,并将噪声样本作为极其困难的样本,并根据样本权重自适应删除样本以提高模型的稳健性和泛化能力。
Nov, 2022
通过提出一种高效的算法AUC-opt来寻找证明最优AUC的线性分类器,并且证明问题在一定条件下是NP完全的;此算法在实验中证明相较于其他方法有所改善,但在大多数测试数据中表现并不如标准分类器。
Jun, 2023
该论文对用于分类的各种代理损失函数的$H$-一致性界限(和超额误差界限)的增长率进行了全面分析。我们证明了二分类中平滑边界为基础的代理损失函数在接近零时的平方根增长率,并在温和假设下提供了上下界限。我们还将此分析扩展到多类分类,并通过一系列新颖的结果展示了平滑comp-sum和约束损失的普遍平方根增长率。在这个普遍率的基础上,我们研究了不同代理损失函数的选择问题,并首先考察了$H$-一致性界限在不同类别的代理损失函数间的变化。然后,我们通过忽略常数并关注接近零时的行为,确定了最小化差距是这些界限差异化因素的关键。因此,我们深入分析这些差距,以指导代理损失函数的选择,并涵盖:对不同的comp-sum损失进行比较,差距变为零的条件,以及导致小差距的一般条件。此外,我们还展示了最小化差距在比较超额误差界限和$H$-一致性界限中的关键作用。
May, 2024
我们对学习延迟的替代损失函数进行了全面的研究,引入了一类由非递增函数Ψ参数化的广泛替代损失,并在温和条件下建立了其实现的H一致性。对于基于分类误差的成本函数,我们进一步展示了在假设集对称且完备(常见的神经网络和线性函数假设集满足此属性)时,这些损失具有H一致性界限。我们的结果还解决了先前工作(Mozannar et al., 2023)中提出的一个开放问题,通过证明了一个特定替代损失的实现H一致性和贝叶斯一致性。此外,我们还确定了Ψ的选择,以实现任何通用成本函数的H一致性替代损失,从而同时实现了贝叶斯一致性、实现的H一致性和H一致性界限。我们还研究了学习延迟中H一致性界限与实现的H一致性之间的关系,突出了与标准分类的关键差异。最后,我们对我们提出的替代损失进行了经验评估,并将其与现有基准进行了比较。
Jul, 2024
基于条件遗憾的关系,我们提出了一种通用框架来建立增强的H一致性边界,这些边界不仅包括现有结果的特例,还能在各种情况下导出更有利的边界,例如:标准多类分类、Tsybakov噪声条件下的二元和多类分类以及二部排序。
Jul, 2024