该研究探讨了利用随机重排来压缩有限和函数的算法 ——Random Reshuffling。该算法在凸优化和非凸优化中很有实用性,并且通常比随机梯度下降更快。研究者通过理论和实验表明,新的方差类型为 RR 的卓越性能提供了额外的理论依据。此外,他们还展示了 Shuffle-Once 算法的快速收敛性,并进一步提出了多种适用于非强凸和非凸目标的算法。他们的理论优于现有文献,同时也揭示了在某些情况下,随机变量的不同类型可能产生更大的影响。
Jun, 2020
本文研究了随机重洗方法的收敛速率,表明在特定条件下随机重洗方法通过迭代平均和逐渐缩小的步长可以以概率一的方式在优化目标值的次优性上以 $\Theta (1/k^{2s})$ 的速率收敛,从而改善了 SGD 的 $\Omega (1/k)$ 收敛速率。
Oct, 2015
研究了过度参数化的机器学习模型,提出了抽样无替换的 SGD 变体 - random reshuffling-,并证明了在一些假设条件下,它可以比 SGD 更快地收敛。此外,对于 Polyak-L ojasiewicz (PL) 函数类问题,当样本数小于条件数与参数之积或小于参数的强增长条件时,证明了 random reshuffling 优于 SGD。
Apr, 2023
本文提出了两种分布式随机重排方法,分别是随机重排梯度追踪 (GT-RR) 和带随机重排的精确扩散 (ED-RR),用于解决连接网络上的分布式优化问题,并在理论上和实践中都优化了以前的分布式随机重排算法的性能。
Jun, 2023
本文提出并研究了一种新颖的随机优化算法,称为基于正态映射的近端随机重排(norm-PRR)方法,用于非光滑非凸有限和问题。我们建立了 norm-PRR 的迭代复杂度 O (n^{-1/3} T^{-2/3}),其中 n 是组成函数的数量,T 表示迭代总数。此外,在 Kurdyka-Łojasiewicz 不等式下,我们建立了 norm-PRR 的强极限点收敛性,并得到了迭代的最终收敛速度为 O (k^{-p}) 的形式;其中,p∈[0, 1] 取决于 KL 指数 θ∈[0,1) 和步长动态。最后,我们还提供了关于机器学习问题的初步数值结果,证明了该方法的效率。
Dec, 2023
本篇论文提出两种新的优化算法:ProxRR 和 FedRR,应用于分布式问题的改进。这些算法在收敛性和计算复杂度方面具有明显优势,并在重要的最优化任务中发挥出色。
Feb, 2021
signSGD 与随机重排(SignRR)在非凸优化中具有相同的收敛速率,我们还提出了利用减小方差的梯度和动量更新的 SignRVR 和 SignRVM 算法,且将这些算法扩展到数据在不同机器上分布的情况。
Oct, 2023
本文研究了常数步长情况下强凸损失函数的随机梯度算法,在收敛时随机重排比均匀抽样性能更优,通过分析表明了迭代值到达最小值的邻域范围更小,证明了随机重排算法的性能更好,同时解释了随机重排算法实现中观察到的周期性行为。
Mar, 2018
该论文研究了随机梯度下降算法在非凸优化问题中的迭代次数,发现采用随机 / 单扰动的随机梯度下降算法的收敛速度要快于经典的随机梯度下降算法,实验证明其具有更好的性能。
May, 2023
本研究探讨了随机梯度下降在平滑和强凸有限和优化问题上的性能,重点研究了包含在个体函数的随机排列中的启发式方法,给出了这些启发式方法的期望优化误差的下界,说明了它们的优势和劣势。
Jul, 2019