BriefGPT.xyz
Ask
alpha
关键词
convex settings
搜索结果 - 3
分散式 SGD 算法的稳定性和泛化分析改进
本文提出 Decentralized Stochastic Gradient Descent 算法的泛化误差分析,并据此证明在凸设置下,不论选择哪种通信图,D-SGD 算法的泛化界限与经典 SGD 算法相同,即前人论述的通信图对泛化的不利影
→
PDF
a year ago
非凸学习中无界时延异步随机梯度下降的收敛控制
研究异步随机梯度下降法在无界梯度延迟的非凸优化问题中的收敛性能,证明了 Async-SGD 和其变体 Async-SGDI 的收敛速度,建立了一个异步随机梯度下降法的充分条件,并将两个梯度延迟模型作为其特殊情况包括在内,得出了一个新的未考虑
→
PDF
6 years ago
ByRDiE:去中心化学习的拜占庭容错分布式坐标下降算法
本研究开发和分析了一种名为 ByRDiE 的算法,使得在分布式学习中存在 Byzantine 故障的情况下,能够高效地对高维数据集进行分布式学习,理论分析和数值实验说明了它在凸性和非凸性设置中的实用性。
PDF
7 years ago
Prev
Next