提出了 VAriance-Reduced Accelerated Gradient 算法来解决求解光滑凸有限和问题,该算法具有良好的收敛性能并且可以用于求解随机有限和问题。
May, 2019
零阶局部双重方差约减(ZPDVR)方法利用平均技巧来减少采样方差和坐标方差,其在复合优化问题中通过随机梯度估计调用随机零阶神谕(SZO)的期望次数为 O (1) 每次迭代,以及在强凸光滑环境中实现了最优的 O (d (n+κ) log (1/ε)) SZO 查询复杂度,其中 κ 表示条件数,ε 为所需精度,经验证 ZPDVR 具有线性收敛,并且在其他相关方法上表现出优越性。
May, 2024
本文提出一种名为 GTVR 的随机分散算法框架,其基于本地方差缩减和全局梯度跟踪的技术,用于解决大规模,有可能无法集中处理私有数据的优化问题。我们在本文中重点研究了 GTVR 并介绍了两种算法 GT-SAGA 和 GT-SVRG,证明它们在解决光滑问题上呈现出线性收敛,并实现了在网络独立下的线性速度提升。
Dec, 2019
本文提出了一种基于分布式随机算法的方差约简方法,以解决在多代理网络中进行大规模非凸有限和优化问题,提出了 GT-VR 算法,并证明了其收敛性和效率优于一些现有的一阶方法。
Jun, 2021
本文介绍了基于不同减小方差的随机梯度的三种非凸随机交替方向乘子方法,包括 SVRG-ADMM、SAG-ADMM 和 SAGA-ADMM,并通过一些温和的条件建立了这些方法的迭代复杂度界限为 O (1/ε),最后通过数值实验证明了方法的有效性。
Oct, 2016
通过提出广义正则化对偶平均(gRDA)算法,该算法首次推导了在线 l1 惩罚问题的渐近分布,并开发了在线稀疏线性回归和在线稀疏主成分分析的统计推断理论,以及进行了广泛的数值分析。
Sep, 2019
该综述对有限数据集的优化中方差缩减方法的主要原理和主要发展进行了概述,重点在于凸设定,并留下指向感兴趣的读者的指针。
Oct, 2020
本文提出了一种新的零阶方差约减梯度上升 / 下降算法来解决机器学习中的零阶 minimax 最小化问题, 并通过实验结果证明其性能优越。
Jun, 2020
本论文提出一种新的加速双平均主 - 双算法来最小化组合凸函数,并推导了该方法的随机版本,从理论和实证上证明了其在处理稀疏数据方面的优势。
Jan, 2020
本文研究了具有 n 个客户机的有限和分布式优化问题,针对流行的 δ- 相似性条件和 μ- 强凸性,提出了 SVRS 和 AccSVRS 两种新算法,其通信复杂度分别为 O (n+√(nδ/μ) ) 和 O (n+ n^(3/4)√(δ/μ) ),并显示了接近匹配的下界以验证其紧密性。
Apr, 2023