- 深度学习计算马尔可夫链的收敛速率
我们提出了深度收敛漂移计算器(DCDC),这是第一个用于以 Wasserstein 距离界定马尔可夫链收敛性的通用样本算法。DCDC 包括两个部分,首先,我们引入了压缩漂移方程(CDE)的解,从而得到了明确的收敛界限;其次,我们开发了一种高 - 差分隐私分布式估计与学习
本文研究了分布式估计和学习问题。利用线性聚合方案和调整的随机化方案,通过交换信息,聚合数据并在保护个体隐私的前提下估计未知特征值。通过对一些例子的验证,证明该算法的高效性和性能保障。
- MM联邦学习中压缩通信的最优速率调适
本论文系统地研究了通信成本和模型准确性之间的权衡,提出了一种自适应网络压缩率最大化最终模型准确性的框架,根据实验结果,这种解决方案可以有效降低网络流量并保持联邦学习中的高模型准确性。
- MM机器学习中的双层优化:算法设计与收敛分析
本篇论文提供了多方面的双层优化算法收敛速度分析,包括问题和算法两个方面,提出了更加高效可扩展的算法设计,并最终提出了新的随机双层优化算法降低了实践中的复杂度并提高其效率。
- ICML双层优化:收敛分析与增强设计
本文研究非凸强凸双层优化问题,提供了两种基于近似隐式导数和迭代导数的算法以及一种名为 stocBiO 的新型算法,并对它们进行了收敛性分析和比较,实验表明这些优化算法在元学习、超参数优化等方面表现出良好效果。
- AAAI使用稳健的学习速率防御联邦学习中的后门
本文提出了防范联合学习中后门攻击的一个轻量级的防御方案,该方案通过调整聚合服务器的学习速率来达到目的,在实验中,我们发现我们的防御方案显著优于文献中提出的一些防御措施。
- 弱凸优化的增量方法
本文研究了一类增量方法,用于解决微弱凸优化问题,并证明了这三种增量方法可以使自然稳定性测量值小于给定的极值下界,同时,当微弱凸函数满足锐化条件时,经过适当的初始化和几何递减的步长,三种增量方法可以实现局部线性收敛速度,最后在鲁棒矩阵感知问题 - MM使用顺序半定规划分析带偏差的随机梯度下降
本文研究了计算误差对有偏随机梯度下降算法的收敛速率的影响,并使用随机二次约束和线性矩阵不等式来推导有偏随机梯度下降算法的收敛界限。此外,通过该线性矩阵不等式条件开发了一种序列最小化方法,用于分析步长选择,收敛速度,优化精度和梯度不准确性之间 - Nesterov 加速法的耗散性理论
本文采用耗散理论的控制理论概念,提供了关于 Nesterov 加速方法的一种自然理解,并利用能量耗散的物理直观概念将严格的收敛率分析与其联系。此外,耗散性理论使得可以有效构建 Lyapunov 函数(数值上或解析上),使用新型供应速率函数, - 一阶优化方法的控制解释
本文提出使用控制解释方法分析大规模优化与机器学习中的一阶迭代优化方法,建立起优化算法的收敛分析与互补灵敏性函数输入输出增益计算之间的联系,并探讨将经典控制合成工具应用于优化算法设计的可能性。
- 随机组合梯度下降:最小化期望值函数组合的算法
通过提出一种随机复合梯度下降 (SCGD) 算法来解决最小化一个包含期望值或两个期望值函数组合的非线性函数的问题;该算法可以令 SCGD 收敛于凸优化问题的最优解,并且可以加速收敛于平稳点来解决非凸问题,进而解决学习、估计、动态规划等实践中 - NIPS通信高效的分布式对偶坐标上升
提出了一种称为 CoCoA 的通信高效的框架,该框架采用原始 - 对偶设置进行本地计算,从而显著减少必要的通信,实验结果表明,相比于 SGD 和 SDCA 算法,CoCoA 在平均 25 倍的时间内收敛到相同的.001 精度解决方案质量。
- 在正则性假设下,放松的 Peaceman-Rachford 和 ADMM 具有更快的收敛速度
本文对 Douglas-Rachford splitting(DRS),Peaceman-Rachford splitting(PRS)和 alternating direction method of multipliers(ADMM)算 - MM非扩张算子的不精确收敛率
本文介绍了使用非扩张算子构建的不精确 Krasnosel'skii-Mann 迭代的收敛速度分析,包括全局逐点和人工的迭代复杂度界限以及在度量次正则假设下对迭代距离固定点集的局部线性收敛。作者开发了易于验证的终止准则以寻找近似解,并将其应用