$\mathscr {H}$- 替代损失函数最小化器的一致性估计误差
我们对回归的 H 一致性界限进行了详细研究,提出了适用于回归的 H 一致性界限的新定理,并针对对称分布和有界假设集的平方损失函数的代理损失函数证明了一系列新的 H 一致性界限,包括 Huber 损失、所有的 lp 损失 (p≥1)、平方 ε-insensitive 损失,以及在平方支持向量回归 (SVR) 中使用的 ε-insensitive 损失的负面结果。我们进一步利用我们对回归 H 一致性的分析,并推导出对抗性回归的合理代理损失函数,从而建立了新的对抗性回归算法,并在第 6 节报道了有利的实验结果。
Mar, 2024
该论文对用于分类的各种代理损失函数的 $H$- 一致性界限(和超额误差界限)的增长率进行了全面分析。我们证明了二分类中平滑边界为基础的代理损失函数在接近零时的平方根增长率,并在温和假设下提供了上下界限。我们还将此分析扩展到多类分类,并通过一系列新颖的结果展示了平滑 comp-sum 和约束损失的普遍平方根增长率。在这个普遍率的基础上,我们研究了不同代理损失函数的选择问题,并首先考察了 $H$- 一致性界限在不同类别的代理损失函数间的变化。然后,我们通过忽略常数并关注接近零时的行为,确定了最小化差距是这些界限差异化因素的关键。因此,我们深入分析这些差距,以指导代理损失函数的选择,并涵盖:对不同的 comp-sum 损失进行比较,差距变为零的条件,以及导致小差距的一般条件。此外,我们还展示了最小化差距在比较超额误差界限和 $H$- 一致性界限中的关键作用。
May, 2024
本论文针对计算机视觉中具有挑战性的分类任务,探究了 top-k 误差的一致性分类及校准代理损失的性能,提出了一种具有一致性的新型铰链损失,同时还发现了符号函数作为代理损失函数的限制。
Jan, 2019
研究凸代理损失函数与二元分类问题中线性预测的分类误差率最小化之间的关系,发现在所有凸代理损失函数中,铰链损失提供了最佳的界限。同时,提供了特定凸代理损失的下界,显示常用损失函数之间的区别。
Jun, 2012
本文提出一种新颖的理论框架,利用凸代理损失函数最小化,探讨结构化预测的相关问题,并提供一些保证与监测措施,同时说明了某些任务损失导致学习难度增加,因此普适性最强的 0-1 损失函数并不适用于一般化的结构化预测。
Mar, 2017
本文研究了广泛应用的交叉熵损失函数,提出了一族损失函数 comp-sum,包括了交叉熵、广义交叉熵、平均绝对误差等。我们首次给出了这些损失函数的 H - 相容性,进一步介绍了一种新的平滑对抗 comp-sum 损失函数,并证明了它们有助于在对抗性环境下提高模型的 H - 相容性。
Apr, 2023
研究了在名义概率分布受到建模误差和异常值影响的情况下的极小极大稳健假设检验问题,并设计了一个基于相对熵距离的稳健假设检验方案,该方案提高了对建模误差的稳健性,并且是之前 Levy 提出的工作的推广。然后,证明了可以通过复合不确定性类将此方案与 Huber 的稳健检验相结合,并证明了鞍值条件的存在。同时,将稳健度量方法扩展到了固定样本量和顺序概率比测试,并将组合模型推广到稳健估计问题。最后,模拟实验验证了所提出的论断。
Feb, 2015