一种通用且自适应的鲁棒性损失函数
本文提出了 Huber 损失的一种新的概率解释方法,该方法与 Laplace 分布间 Kullback-Leibler 散度的上界最小化相关,并通过模拟噪声分布来确定 Huber 损失的最适超参数值。
Nov, 2019
本文比较了传统均方误差(MSE)和柯西损失函数(CLF)的表现,结果显示在带有异常值数据的情况下,CLF 相对更具鲁棒性和适用性,提高了人工神经网络的性能。
Feb, 2023
通过广义分位数 Huber 损失函数从高斯分布之间的 Wasserstein 距离计算出噪声,本文提出了一种广义的分位数 Huber 损失函数,主要用于在分布性强化学习中估计回报分布。与经典分位数 Huber 损失相比,该创新损失函数增强了对异常值的鲁棒性,且经过实证测试验证了其在 Atari 游戏和最新对冲策略中应用于分布性强化学习的效果以及在参数调整中的潜力。
Jan, 2024
本研究提出了一种基于 Hellinger 距离的证明技术,可以用于证明黑盒模型和有界损失函数的分布健壮性和域外泛化。实验证明这种技术在大型神经网络和不同类型的损失函数下具有良好的可扩展性和灵活性。
Feb, 2022
本文研究了鲁棒损失函数在标签噪声下的训练动态,通过重新表示大多数损失函数为具有相同类得分边界和不同样本加权函数的形式,提供了对训练动态的直观分析,证明了简单的修复可使欠拟合的鲁棒损失函数竞争力与最先进的方法相当,而训练时间表可以明显影响噪声鲁棒性,即使使用鲁棒损失函数。
May, 2023
探讨关于对抗性样本的问题,提出一种基于运输成本不确定性集合的正则化方法,实现了对 Lipschitz 正则化模型的稳健性证明,揭示了对抗学习和分布鲁棒性之间的联系,并提供了对核分类器的 Lipschitz 正则化方法。
Feb, 2020
采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019
研究使用经验风险最小化解决预测和估计问题,针对一般凸损失函数。我们证明了即使当集中度是错误的或非常受限制的情况下,例如在重尾场景中,我们也可以获得尖锐的误差率。我们的结果表明,误差率取决于两个参数:一个捕捉类别的内在复杂性,以实质上在无噪声(或可实现)问题中导致误差率;另一个衡量类成员之间的交互、目标和损失,并且在问题远离可实现时是主导的。我们还解释了如何选择与类的内在复杂性和问题噪声水平相 calibrated 的损失来处理离群值。
Oct, 2014
本研究探讨了在学习排序问题中,利普希茨连续性和平滑性如何影响泛化误差,并使用∞-norm 改进了现有界限。此外,选择好的范数使得在平滑性假设下,我们证明了介于 1 / 根号 n 和 1/n 之间的比率。
May, 2014
本文提出了一个基于图的学习框架来训练在对抗扰动下具有稳健性的模型,并通过 Lipschitz 约束将对抗性稳健学习问题形式化为损失最小化问题,设计了一个稳健训练方案来收敛到拉格朗日函数的鞍点。 最终通过实验表明,在达到期望的标准表现的同时提高模型的稳健性存在一定的基本下限。
Jun, 2020