Jan, 2024

最小最大问题的扩散随机优化

TL;DR通过引入和分析一种名为 Diffusion Stochastic Same-Sample Optimistic Gradient (DSS-OG) 的新形式,我们解决了传统随机版本需要较大批次的问题,并在更一般的非凸 Polyak-Lojasiewicz (PL) 风险函数设置下,证明了它的收敛性和对大批次问题的更紧的上限,并将所提出的方法的适用性扩展到分布式场景。为了实现 DSS-OG,我们可以通过一些额外的内存开销并行查询随机梯度的预言机,导致其复杂性与传统的方法相当。通过训练生成对抗网络的测试,我们展示了所提出算法的有效性。