在线可学习稳定性条件
本文研究在线学习算法的稳定性及其对可学性(有限后悔)的影响,提出了一种称为 “前向后悔” 的新指标,用于测量在线学习算法的预测性能,证明了对于在线优化问题,稳定性等价于后悔有界,且有界前向后悔等价于有界后悔,在分析现有算法的可学性方面提供了一个简单的方法。
Nov, 2012
探讨了算法稳定性作为分析学习算法泛化误差的可行框架的概念。引入了学习算法训练稳定性的新概念,并证明在一般情况下它足以得到泛化误差的好界。在 PAC 设置中,训练稳定性在可学习性上既是必要的也是充分的。基于训练稳定性的方法不涉及 VC 维或 VC 熵,不需要证明一致收敛,而广义 McDiarmid 不等式可直接限制泛化误差。因此,它可能使我们处理比经验风险最小化更广泛的学习算法类。还探讨了 VC 维、泛化误差和各种稳定性概念之间的关系,并考虑了几个学习算法的例子。
Dec, 2012
本文介绍 CV_on stability 的概念,并证明具有一般性和一致性的 ERM 方法的推广和一致性所需的必要条件是 CV_loo 稳定性,以及探讨 SDG 的 CV_on 稳定性对于 SGD 的收敛的影响。
May, 2011
本文提出一种基于局部弹性的弱稳定性概念,用以提供具有指数通用性限制条件的机器学习算法算法稳定性,比常见的分布无关的最坏损失情况敏感性更具参考价值,该概念在支持向量机、最小二乘回归和随机梯度下降等模型中具有受限制的情况下比统一稳定性提供更紧的泛化限制条件。
Oct, 2020
本文分为两部分,第一部分研究了统计学习问题的可学习性和在线学习问题的泛化能力,使用稳定性和经典工具如 Rademacher 复杂度和覆盖数,发现一般学习环境下统一收敛理论无法检测可学习性,第二部分针对凸优化问题提出了适当的镜像下降更新以及 MD 算法在凸优化问题上的可行性研究,证明线性类的 fat-shattering 维度限制了预测问题的 oracle 复杂度。
Apr, 2012
算法稳定性是学习理论中的一个核心概念,它量化了算法对训练数据中微小变化的敏感性。如果学习算法满足特定的稳定性属性,这将导致许多重要的下游影响,如泛化性能、鲁棒性和可靠的预测推理。然而,最近的研究结果表明,对于黑盒算法而言,在有限来自未知分布的数据的情况下,验证稳定性是不可能的,尤其是当数据存在于无穷空间(如实值数据)的情况下。在本文中,我们将这个问题扩展到更广泛的设置中,其中数据可以存在于任何空间,例如分类数据。我们提出了一个统一的框架来量化测试算法稳定性的难度,这证明了在所有设置中,如果可用的数据是有限的,则穷举搜索基本上是唯一有效的证明算法稳定性的机制。由于在实践中,任何稳定性测试自然都会受到计算约束的限制,因此穷举搜索是不可能的,这意味着我们测试黑盒算法的稳定性属性能力存在根本限制。
May, 2024
本研究提出了算法稳定性的概念,即我们称之为 “参数稳定性”,它捕捉从中选择假设的函数的规范空间中学习算法产生的假设的稳定性。 论文的主要结果在于以参数稳定性来限制任何学习算法的泛化误差。这些限制基于 Banach 空间中的鞅不等式。 我们将普遍限制应用于基于经验风险最小化和随机梯度下降的一些学习算法的性能边界。
Feb, 2017
本篇论文介绍了一种将在线增强学习与经典控制的元素(基于 Lyapunov 稳定性理论)进行结合的方法,可在不进行长期预训练的情况下为移动机器人提供稳定的控制能力,并通过实验研究证明了该方法的有效性。
Jul, 2022