Jan, 2020

选择损失最小的样本使 SGD 更加稳健

TL;DR本文介绍针对使用随机梯度下降优化的机器学习模型在训练中可能出现的离群值导致参数偏差问题提出的一种新算法,该算法通过选择一组 k 个样本中当前损失最小的进行更新的方式可以提高模型的健壮性和准确性,可能对于各类由凸损失函数构成的机器学习问题都适用。