本文提出一种基于在线梯度下降方法的动态调参算法,以降低动态遗憾(dynamic regret),进而优化强凸且未知动力学的损失函数。
Mar, 2016
本文研究动态环境下的在线凸优化问题,通过提出一种自适应学习的方法 Ader,利用专家跟踪算法结合一组专家来最小化动态遗憾,并扩展到可用于表征比较器的动态模型序列的情形。
Oct, 2018
本文提出了一种在线凸优化算法,该算法在非稳态环境中表现出优异的动态后悔表现,通过充分利用流畅性条件,能够在动态后悔中代替对 T 的依赖,而采用问题相关的数量:损失函数的梯度变化、比较序列的累积损失和前两个 term 的最小值,从而使问题的复杂度自适应问题的困难程度,即在简单问题上使界限更紧,同时保证了最坏情况下相同的界限。
Jul, 2020
本文提出了一种完全自适应的方法,适用于在线学习中的动态比较基准,并且应用到了零和博弈中。
Jan, 2015
本研究关注在线凸优化的动态遗憾,通过探索称为路径变化的时间变化机制,提出了一些动态遗憾改进的变差上限,并证明他们在已有的下限条件下是最优的。
May, 2016
本文研究了强凸损失函数下的动态遗憾最小化框架,通过利用 KKT 条件所施加的许多新约束条件,我们回答了 Baby 和 Wang 2021 年提出的一个开放性问题,并展示了强适应算法在适当的学习设置下可以同时针对任何比较序列达到几乎最优的动态遗憾。此外,在处理非平滑损失和改善回避维度依赖性等方面,我们还取得了 Baby 和 Wang 2021 年工作的其他改进,并针对 exp-concave 损失和一个 L∞受限决策集的特殊情况导出了几乎最优的动态遗憾率。
Jan, 2022
动态遗憾最小化在在线凸优化中是一个重要问题。本文提出了一个新的统一框架来分析和设计这些算法,证明了适应任意比较序列的动态遗憾达到 O (根号下 T 总和的局部平滑化平方路径长度) 的算法是可行的,并且提供了一个替代路径长度计算方式的新概念来实现更好的适应性。
Jun, 2024
本文介绍了一种通过多次查询函数梯度并减弱强凸性条件来优化在线学习器性能的方法,并引入了比路径长度更小的平方路径长度作为比较序列的新规则。
Aug, 2016
优化非稳态动态损失和自适应损失的有效方法涉及非稳态在线学习的减少投影和梯度查询次数,在参数自由在线学习的基础上进行了非平凡的改进。
Sep, 2023
使用先进的证明技术和 Zinkevich-style 动态遗憾最小化框架,本研究提出了一个强适应的在线学习算法,其总变化控制下的动态遗憾为 O (n^(1/3)*C_n^(2/3)),并且可以扩展到局部自适应非参数回归问题中。
Apr, 2021