最小化最大损失:如何和为什么?
研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
引入最大熵原理的一般化方法,应用于带有从数据中得出的经验边缘条件的分布集合,提出一种针对监督学习问题的通用 minimax 方法,其中最大熵机是一种新的最小化结构化分布中最坏情况 0-1 损失的线性分类器,并且通过实验表明可以优于其他线性分类器,同时证明了 minimax 方法中的泛化最坏情况误差保证的界限。
Jun, 2016
本文介绍针对使用随机梯度下降优化的机器学习模型在训练中可能出现的离群值导致参数偏差问题提出的一种新算法,该算法通过选择一组 k 个样本中当前损失最小的进行更新的方式可以提高模型的健壮性和准确性,可能对于各类由凸损失函数构成的机器学习问题都适用。
Jan, 2020
该研究论文介绍了提升算法的基本概念,通过对 AdaBoostV 算法的研究,提出了一种新算法可以同时减少基本假设的数量和提高最小间隔的质量,并进一步证明其最优性。
Jan, 2019
本文提出了一种直接损失最小化的方法来训练深度神经网络,特别适用于应用特定的指标,包括提出了新的动态规划算法来高效计算权重更新,最终在行动分类和目标检测方面表现优秀,特别是在存在标签噪声的情况下。
Nov, 2015
本文旨在解决半监督二分类集合聚合问题,以最小化在未标记数据上产生的预测损失,并找到了一类最小 - 最大最优预测。结果是一组半监督集合聚合算法,能像线性学习一样高效,但无需放松任何限制。它们的决策规则采用决策理论中熟悉的形式,将 Sigmoid 函数应用于集合边缘的概念,而不需要通常在基于边缘的学习中做出的假设。
Oct, 2015
在分布鲁棒学习中,我们引入了基于对抗性矩违规的新的极小极大目标,并展示了通过最小化该目标等效于最小化与真实条件期望的最坏情况下的 $l_2$ 距离,从而在计算成本上提供了大体量的经验性节省。
May, 2024
本文设计了一种新的最大边距 (MM) 损失函数来解决类不平衡数据中存在的分类不平衡问题,并探讨了两种基于最大边界的决策边界位移方法在 LDAM 训练日程上的表现。
Jun, 2022
通过对深度神经网络上梯度下降算法的实证研究发现,通过训练集中带宽分布曲线的曲线下面积来量化模型的泛化性能是更精确的方法,并且在加入批量规范化和权重衰减的情况下得到的训练点会收敛到同一个渐近边界,但其高容量特征并不一致。
Jul, 2021