强适应性在线学习
该论文提出了一种新的 “元” 算法,可以在在线学习环境中实现算法的快速适应,该算法对于同样时间复杂度的其他算法而言具有更好的强适应性后悔边界,并且在专家建议的学习及度量学习方面表现优异。
Nov, 2017
介绍了一种基于 Lagrangian hedging 的在线算法(包括 regret-matching 和 hedge),通过引入 optimism 和 adaptive step size 对非对抗性问题进行了优化,并给出了相应的性能界限。
Jan, 2021
本文提出了一种新的无需额外参数的在线学习算法,适用于不断变化的环境,并获得了至少 sqrt (log (T)) 倍于已有算法的强适应性遗憾界。经实验证明,在专家建议和度量学习场景中,我们的算法优于现有的最先进方法。
Oct, 2016
本文介绍了一种基于 Hedge 算法且用于决策论在线学习的新方法 —— 自适应设置学习率,该方法在最坏情况下保证了最优表现,但在简单的情况下可以达到更小的错误率。除此之外,本文还提供了一项仿真研究,以比较自适应设置学习率方法与现有方法的优劣。
Oct, 2011
在线学习不仅仅是记住一切。通过使用自适应在线学习中近期开发的技术重新审视折扣遗憾的经典概念,我们提出了一个能够优雅地在新数据到达时遗忘历史的关键算法,改进了传统的非自适应算法,即使用固定学习率的梯度下降算法。具体而言,我们的理论保证不需要任何除了凸性之外的结构假设,该算法在次优超参数调整时可以证明是鲁棒的。通过在线符合预测,我们进一步展示了这些好处,它是一个具有集合成员决策的下游在线学习任务。
Feb, 2024
研究在线提升的两种算法:boost-by-majority 和自适应在线提升算法,证明其在可接受精度下基本上是最优的。两种算法都能处理样本的重要性权重,并且使用了在线损失最小化技术。
Feb, 2015
该论文提出了一种普遍框架,用于研究在线学习框架下的自适应遗憾界限,包括模型选择界限和数据相关界限;该框架基于顺序复杂度量的修正,并使用单侧尾不等式来界定此界限,并在线性优化和在线 PAC-Bayes 定理中进行了实例化。
Aug, 2015
本文提出了一种简单的方法,可以将两个具有不同遗憾保证的无参数在线学习算法结合起来得到一个新的算法,其遗憾值是两个算法中的最小值。此外,作者还提出了一种基于该方法的黑盒子算法,可以生成乐观的在线学习算法,并提供无拘束设定下的第一个乐观遗憾保证。
Feb, 2019