本文提出一种名为 GTVR 的随机分散算法框架,其基于本地方差缩减和全局梯度跟踪的技术,用于解决大规模,有可能无法集中处理私有数据的优化问题。我们在本文中重点研究了 GTVR 并介绍了两种算法 GT-SAGA 和 GT-SVRG,证明它们在解决光滑问题上呈现出线性收敛,并实现了在网络独立下的线性速度提升。
Dec, 2019
本文提出了一种基于分布式随机算法的方差约简方法,以解决在多代理网络中进行大规模非凸有限和优化问题,提出了 GT-VR 算法,并证明了其收敛性和效率优于一些现有的一阶方法。
Jun, 2021
本文研究了节点网络上的去中心化在线随机非凸优化。通过将梯度跟踪技术集成到去中心化随机梯度下降中,我们证明了该算法具有一定的优势,并分析了其有效性和性能。同时,对于满足 Polyak-Lojasiewics 条件的全局非凸函数,我们确定了 GT-DSGD 的线性收敛性,并且在几乎每条路径上具有最优的全局亚线性收敛速度。
Aug, 2020
本文研究分散设置中的非凸函数求和最小化优化问题,提出了 PMGT-SVRG 算法的新的理论分析,证明了其方法的线性收敛性。然而,PMGT-SVRG 算法的收敛速度与条件数呈线性依赖关系,这对于病态问题而言是不理想的。为了解决这个问题,我们提出了一种结合加速、梯度跟踪和多共识混合技术的加速随机分散一阶算法,该方法的收敛速度与条件数呈平方根依赖关系。数值实验验证了我们提出算法在合成和真实数据集上理论保证的有效性。
Feb, 2024
本文提出了使用混合随机估算器设计的混合随机梯度算法来解决非凸期望问题,该算法可以获得更好的复杂度,同时考虑不同的扩展,如使用自适应步长和不同的迭代方式。在使用两个非凸模型进行了多个数据集上的比较。
May, 2019
我们提出了一种基于嵌套方差降低的新随机梯度下降算法,可用于解决有限个数个、非凸函数的优化问题,并且在平滑非凸函数上具有比现有算法更好的梯度复杂度。
Jun, 2018
该论文研究了关于具有本地数据样本批量的节点网络的分散式非凸有限和最小化问题,并提出了一种名为 GT-SAGA 的单时间尺度随机增量梯度法,通过利用节点级方差、网络级梯度跟踪等手段优化它的性能,这种方法在特定条件下起到了优于现有方法性能的作用,该文对此进行了详细分析。
Nov, 2020
该文章提出了一种名为 D-GET 的去中心化随机算法,可以提高大规模机器学习中高度非凸问题的性能,同时在减少多节点通信轮数的同时,访问最少量的局部数据样本,以实现确定性有限和在线问题的小样本复杂度和通信复杂度,并优于现有方法的复杂度。
Oct, 2019
本研究考虑了在敌对环境下最小化一个期望函数的非凸分布式随机优化问题,在此基础上,提出了一种机制,通过使用一种新型的拜占庭过滤规则,可以保证算法收敛,并且能够捕捉网络中破损节点所带来的影响。
提出两个算法,其中一个利用随机嵌套方差降低算法能快速找到局部最小值, 算法在有限和一般随机非凸优化中的效果都优于现有算法,并进一步探索了目标函数的三阶光滑度加速优化的情况。