Oct, 2023
有限内存下降低方差的在线梯度下降法在核化对学习中的应用
Variance Reduced Online Gradient Descent for Kernelized Pairwise
Learning with Limited Memory
TL;DR在线渐减梯度法是解决涉及训练示例对的损失函数机器学习问题中至关重要的方法之一。本研究提出了一种扩展到核在线成对学习的有限内存在线渐减梯度算法,同时改善亚线性遗憾。通过构建在线渐减梯度与格雷特之间的清晰关系,并使用存储有限数量的最新分层样本构建在线渐减梯度,我们的算法在真实数据集上的实验证明其优于核化和线性的在线成对学习算法。