在线分类与预测
在线学习不仅仅是记住一切。通过使用自适应在线学习中近期开发的技术重新审视折扣遗憾的经典概念,我们提出了一个能够优雅地在新数据到达时遗忘历史的关键算法,改进了传统的非自适应算法,即使用固定学习率的梯度下降算法。具体而言,我们的理论保证不需要任何除了凸性之外的结构假设,该算法在次优超参数调整时可以证明是鲁棒的。通过在线符合预测,我们进一步展示了这些好处,它是一个具有集合成员决策的下游在线学习任务。
Feb, 2024
在线学习方法在最小假设下产生顺序遗憾界限,并为统计学习提供期望风险界限;然而,最近的研究结果表明,在许多重要情况下,遗憾界限可能无法保证统计背景下紧致的高概率风险界限。本研究通过将通用在线学习算法应用于在线到批次转换,通过对定义遗憾的损失函数进行一般的二阶校正,获得了几个经典统计估计问题(如离散分布估计、线性回归、逻辑回归和条件密度估计)的几乎最优的高概率风险界限;我们的分析依赖于在线学习算法的不恰当性,因为它们不限制使用给定参考类别的预测器;我们的估计器的不恰当性使得在各种问题参数上显著改善了依赖;最后,我们讨论了我们的顺序算法与现有批处理算法之间的一些计算上的优势。
Aug, 2023
研究在线情况下的不确定性量化问题,提出新的自适应后悔最小化算法用于在线共形预测,证明了该方法实现了近似最优的自适应后悔和适当的预测覆盖,同时在时间序列预测和图像分类等实际任务上对现有方法具有明显的优势。
Feb, 2023
如何在设计在线算法中最佳利用不确定性量化预测,以及如何利用更一般形式的不确定性量化,提出了基于在线学习的框架来在多实例场景中学习如何充分利用不确定性量化作出最佳决策。
Oct, 2023
介绍了一种算法设计范例 —— 基于学习预测器的算法,将在线学习技术应用于预测器学习、调整鲁棒性 - 一致性折中并绑定样本复杂度,在构建优美的预测器的同时,在二分图匹配、滑雪租赁、页面迁移和作业调度等多场景中优化了多个现有结果,且提供了第一批基于学习理论的担保。
Feb, 2022
研究了具有预测模型的平滑在线组合优化问题,提出一种在线算法在规划窗口和开关代价之间实现平衡,通过对合成在线分布流问题进行实证,证明在累积规避中取得了显着的改进。
Apr, 2022
本文研究了在多个机器学习预测的基础上增强的在线算法。我们提出了一个通用的算法框架,用于多重预测的在线覆盖问题,该算法能够获得与最佳预测器性能相竞争的在线解决方案。该算法还能够同时使竞争性达到最佳预测和最佳在线算法的性能水平,并应用于解决一些经典问题。
May, 2022
通过基本理念和关键原则的系统回顾以及对不同算法和技术的适当分类,此调查旨在提供对在线机器学习文献的全面调查。总体而言,现有的在线学习作品可以根据学习类型和反馈信息的形式分为三个主要类别:(i)始终可用全反馈信息的监督式在线学习,(ii)具有有限反馈的在线学习,以及(iii)无反馈可用的无监督在线学习。
Feb, 2018
本文研究具有预测的在线图形问题,提出了一个新的度量误差的定义 (metric error),并给出了一个通用框架,用于在线预测算法。采用这个框架,我们能够获得关于竞争比率的紧密限制,并将其作为度量误差的函数来描述。
Dec, 2021