BriefGPT.xyz
大模型
Ask
alpha
关键词
stochastic gradient descent ascent
搜索结果 - 3
变分不等式中的随机方法:遍历性,偏差和改进
本研究旨在通过将常数步长随机外推算法(SEG)和随机梯度升降(SGDA)重新组合为时齐马尔科夫链来澄清并量化这些算法内在的概率结构,并证明了对于广泛的单调和非单调 VIP 而言,平均迭代数渐近地趋向于具有唯一不变分布的正态分布,从而带来了对
→
PDF
a year ago
SAGDA: 在联邦式 Min-Max 学习中实现 O (ε^{-2}) 通信复杂度
本文提出了一种名为 SAGDA 的新算法框架,用于降低联邦 min-max 学习的通信复杂度,并在此基础上提高了对标准 FSGDA 方法通信复杂度的理解。
PDF
2 years ago
局部随机梯度下降上升:收敛分析与通信效率
本文提出了一种名为 local SGDA 的算法来缓解分布式学习中的通信开销,可在广泛的分布式 minmax 优化问题下实现可证明的收敛性和更少的通信次数。
PDF
3 years ago
Prev
Next