在线非参数回归
本文研究任意函数类和一般损失的在线回归问题,并确定了最小极大率。结果表明,当函数类的复杂度低于某一阈值时,最小极大率取决于损失函数的曲率和序列复杂度。而当复杂度高于该阈值时,损失的曲率不再影响率。此外,对于平方损失,当顺序和独立同分布的经验熵匹配时,统计和在线学习的速率相同。我们还提供了一种通用的预测器,它具有确定的最优率,并提供了一种设计在线预测算法的方法,用于某些问题可以是计算量有效的。
Jan, 2015
研究了使用一种新的预测算法在无需假设标签与对象的生成方式的条件下,对已知标签对象的实时预测问题,通过比较此算法与一定范围内的预测规则,证明了此算法的误差率在极限范围下可达到最佳状态,可用于无参统计学的普适预测。
Nov, 2005
在线学习方法在最小假设下产生顺序遗憾界限,并为统计学习提供期望风险界限;然而,最近的研究结果表明,在许多重要情况下,遗憾界限可能无法保证统计背景下紧致的高概率风险界限。本研究通过将通用在线学习算法应用于在线到批次转换,通过对定义遗憾的损失函数进行一般的二阶校正,获得了几个经典统计估计问题(如离散分布估计、线性回归、逻辑回归和条件密度估计)的几乎最优的高概率风险界限;我们的分析依赖于在线学习算法的不恰当性,因为它们不限制使用给定参考类别的预测器;我们的估计器的不恰当性使得在各种问题参数上显著改善了依赖;最后,我们讨论了我们的顺序算法与现有批处理算法之间的一些计算上的优势。
Aug, 2023
研究在线非参数回归算法,可以学习回归函数平滑的方向;基于回归函数梯度外积矩阵 G,学习 Mahalanobis 度量(可以自适应 G 矩阵的有效秩),同时考虑到 G 的频谱,限制在相同数据序列上的遗憾;作为分析的初步步骤,将 Hazan 和 Megiddo 的非参数在线学习算法扩展,使其能够竞争相对于任意 Mahalanobis 度量计量 Lipschitzness 的函数。
May, 2017
本文研究了在线同位型回归问题中的最优在线学习算法,提出了使用指数权重算法结合同位型覆盖网的方法,并对其进行了理论分析和计算可行性的研究;同时还扩展了该算法在绝对损失函数的应用。
Mar, 2016
在线学习不仅仅是记住一切。通过使用自适应在线学习中近期开发的技术重新审视折扣遗憾的经典概念,我们提出了一个能够优雅地在新数据到达时遗忘历史的关键算法,改进了传统的非自适应算法,即使用固定学习率的梯度下降算法。具体而言,我们的理论保证不需要任何除了凸性之外的结构假设,该算法在次优超参数调整时可以证明是鲁棒的。通过在线符合预测,我们进一步展示了这些好处,它是一个具有集合成员决策的下游在线学习任务。
Feb, 2024
关于随机设计回归模型的统计学习研究,我们提出了一种聚合经验最小值的方法,并建立了其风险的尖锐 Oracle 不等式,进一步证明了在良好规定的模型下,统计估计和在错误规定的模型下的统计后悔的速率等价的结论。
Aug, 2013