- 算法稳定性可测试吗?在计算限制下的统一框架
算法稳定性是学习理论中的一个核心概念,它量化了算法对训练数据中微小变化的敏感性。如果学习算法满足特定的稳定性属性,这将导致许多重要的下游影响,如泛化性能、鲁棒性和可靠的预测推理。然而,最近的研究结果表明,对于黑盒算法而言,在有限来自未知分布 - 利用扩展的 argmax 构建稳定分类器
我们提出了一个新的算法稳定性框架,用于多类分类。该框架使用连续分数,并引入了稳定得分生成和标签选择机制,以解决分类算法中的不稳定性问题。实验证明,该方法在保持准确性的同时,提供了对不稳定分类器的必要保护。
- 标签噪声随机梯度下降的泛化界
我们在非凸设置下,使用均匀耗散和平滑条件对带有标签噪声的随机梯度下降(SGD)进行了泛化误差界限的研究。在合适的半度量选择下,我们建立了依赖于参数维度 $d$ 的标签噪声随机梯度流的 Wasserstein 距离压缩。利用算法稳定性框架,我 - 分散随机梯度下降上升算法的稳定性和泛化性
我们研究了分布式随机梯度上升下降(D-SGDA)算法的原始 - 对偶广义界限,通过算法稳定性方法,在凸凹和非凸非凹环境下对分布式最小最大算法的广义界限进行了改进。我们的理论研究表明,分布式结构不会破坏 D-SGDA 的稳定性和广义化能力,在 - 超图协同网络的稳定性与泛化性
该研究论文旨在建立协作网络核心层的算法稳定性,并提供泛化保证。分析揭示了协作网络中超图滤波器的设计原则,例如如何对数据和超图滤波器进行缩放以实现学习过程的统一稳定性。论文还通过实验结果在现实世界数据集上进行了说明。
- 随机组合梯度下降算法的稳定性和概化能力
通过统计学习理论的算法稳定性角度,本文提供了随机组合梯度下降算法的稳定性和泛化分析,包括引入组合均匀稳定性的概念、建立其与复合优化问题泛化性能的定量关系、针对两种常用的随机组合梯度下降算法 SCGD 和 SCSC 建立组合均匀稳定性结果,并 - 通过稳定性理解联邦学习的泛化:异质性很重要
本文针对联邦学习中算法稳定性的概念,研究了 FedAvg、SCAFFOLD 和 FedProx 在凸性和非凸性损失函数下的通用性能,并探讨了客户端数据的异质性和算法收敛行为对模型通用性能的影响。
- 分散式 SGD 算法的稳定性和泛化分析改进
本文提出 Decentralized Stochastic Gradient Descent 算法的泛化误差分析,并据此证明在凸设置下,不论选择哪种通信图,D-SGD 算法的泛化界限与经典 SGD 算法相同,即前人论述的通信图对泛化的不利影 - 版权是否可以归结于隐私?
该论文探讨如何使用算法稳定技术保护受版权保护的内容免受生成 AI 模型的影响,并指出只是采用这些技术并不能等同于保护版权内容。
- 学习算法的统计不可区分性
本文讨论如何通过总变差(TV)距离度量学习规则的输出相似性,提出了 TV 不可辨认性的信息论等价性和统计学放大以及提升算法,并研究了基于 TV 不可辨认性的假设类可学习性。
- 均匀时间 Wasserstein 稳定性界限用于(带噪)随机梯度下降
通过将学习理论与应用概率联系起来,引入了一种新的方法来证明随机优化算法的 Wasserstein 稳定性边界,并在强凸损失和带有附加噪声的非凸损失的情况下获得了时间均匀稳定性边界,其不随迭代次数增加而增加,并且证明了 Lyapunov 函数 - MM关于双层优化问题的稳定性和泛化性
本文针对双层 (随机) 优化问题,探讨了梯度下降方法的算法稳定性与泛化误差之间的基本联系,并在一般性情形下给出了稳定性界限的分析,通过实验证明了迭代次数对泛化误差的影响。
- ICML拓扑感知的去中心化 SGD 的泛化
研究了分散随机梯度下降(D-SGD)算法的算法稳定性和分布特性,证明了 D-SGD 认为的共识模型具有稳定性,证明了 D-SGD 具有一般化的可行性。D-SGD 的可行性与谱间隙呈正相关,并且可以解释为什么最初的培训阶段的共识控制可以确保更 - leave-one-out 不公平
介绍了什么是 leave-one-out unfairness 以及其与算法稳定性、深度模型、对抗训练和随机平滑的关系,并讨论了其可能对一些实际应用产生的负面影响。
- IJCAI结构化输出预测的细粒度泛化分析
本文研究机器学习中的结构化输出预测问题,通过提出基于算法稳定性的新型高概率界限和期望的泛化界限,改进了该领域的研究。同时,本文扩展了该领域的研究对象到弱相关数据。
- ICML随机梯度下降法在极小极大问题中的稳定性和泛化性
通过算法稳定性的视角,对凸凹和非凸非凹情形下的随机梯度方法在极小极大问题中的泛化能力进行了全面的分析,建立了稳定性与泛化能力之间的定量联系。在凸凹情形下,稳定性分析表明了随机梯度下降算法对于平滑和非平滑的极小极大问题皆可达到最优的泛化界。我 - 算法稳定性驱动的机器学习去加工化
本文研究机器遗忘问题,并确定算法稳定性的概念 —— 总变差(TV)稳定性,通过噪声随机梯度下降(SGD)设计基于 TV 稳定算法的高效遗忘算法,为了了解准确性与遗忘效率之间的权衡,本文对凸风险最小化的 TV 稳定算法进行了上下界分析,该技术 - SGD 稳定性:紧密度分析和改进的界限
本文研究了随机梯度下降方法在训练大规模机器学习模型中的应用,分析了损失函数和数据分布对其泛化性能的影响,提出了改进的数据相关的上界和下降算法来进一步了解深度网络的泛化能力。
- 模型无关元学习算法的泛化:循环和未见任务
本文研究了超模型学习中的 MAML 算法在监督学习问题的推广性质,探讨了训练 MAML 模型的任务和样本数量对其推广误差的影响。我们提出了一种新的稳定性定义,从而捕捉了任务数和每个任务样本数对 MAML 推广误差的作用。
- ICML局部弹性稳定性更好的泛化界限
本文提出一种基于局部弹性的弱稳定性概念,用以提供具有指数通用性限制条件的机器学习算法算法稳定性,比常见的分布无关的最坏损失情况敏感性更具参考价值,该概念在支持向量机、最小二乘回归和随机梯度下降等模型中具有受限制的情况下比统一稳定性提供更紧的