本论文针对计算机视觉中具有挑战性的分类任务,探究了 top-k 误差的一致性分类及校准代理损失的性能,提出了一种具有一致性的新型铰链损失,同时还发现了符号函数作为代理损失函数的限制。
Jan, 2019
本文提出了一种基于约束学习的新框架, 可以通过在训练数据的子集上预测正 / 负例率来解决二分类器中的类不平衡问题,并避免了复杂的约束优化问题。该方法与模型无关且仅支出少量计算代价。在各种基准测试上的实验显示了与现有基准相比具有具有竞争性的性能。
Feb, 2018
本文提出使用一种广泛的强适当损失类来实现针对二分排序问题的非两两代理规则界限,并通过最近的结果进一步获得了低噪声条件下的更紧密的代理规则界限。
Jul, 2012
本文提出了一种针对非可分离损失函数的在线学习框架,通过引入新型算法设计和分析,该模型具有高效的在线学习算法,具有亚线性遗憾和在线转换界限;进一步开发了可扩展的随机梯度下降求解器,经过实验在真实数据集上证明,该方法比近期提出的切割面算法快得多。
Oct, 2014
本文提出了一个理论框架来进行结构化预测,其将多标签,排序回归和图匹配等任务的损失统一了起来,并可以获得条件随机场和二次代理等现有代理方法上的新结果。
Feb, 2019
本文提出了一种新的度量标准,名为 partial AUTKC,可以更好地区分不同分类。同时,论文还提出了一种用于优化该度量标准的框架,并在四个基准数据集上进行了实验证明其有效性。
Sep, 2022
我们研究了 top-k 分类的细节,该任务是预测输入的 $k$ 个可能的类别,超越单一分类预测。我们证明了多类别分类中的几种普遍代理损失函数,如 comp-sum 和约束损失,具有相对于 top-k 损失的 H 一致性界限。这些界限保证了与假设集 $H$ 相关的一致性,提供比贝叶斯一致性更强的保证,因为它们是非渐近和假设集特定的。为了解决准确性和基数 $k$ 之间的权衡,我们进一步通过实例依赖的成本敏感学习引入了基数感知的损失函数。对于这些函数,我们得到了成本敏感的 comp-sum 和约束代理损失,建立了它们的 H 一致性界限和贝叶斯一致性。最小化这些损失会导致新的基数感知算法应用于 top-k 分类。我们报道了在 CIFAR-100、ImageNet、CIFAR-10 和 SVHN 数据集上的大量实验证明了这些算法的有效性和好处。
Mar, 2024
通过引入足够统计概念,我们展示了关于损失函数族的近似秩的界限,进而改进了学习全凸的、利普希茨损失函数的全能预测器的运行时间,并为损失族具有低次多项式逼近或由广义线性模型(GLMs)生成的情况下提供了高效的全能预测器。
Jan, 2024
本文提出一种新颖的理论框架,利用凸代理损失函数最小化,探讨结构化预测的相关问题,并提供一些保证与监测措施,同时说明了某些任务损失导致学习难度增加,因此普适性最强的 0-1 损失函数并不适用于一般化的结构化预测。
Mar, 2017
本研究致力于解决在电子商务中,为了使商品推荐更具多样性和公正性,提出的带约束排序优化问题,通过提出的快速精确和近似算法,得出结论:即使当约束条件很大时,我们的算法仍然可以在线性时间内运行,并且产生具有小约束违规的解决方案。
Apr, 2017