BriefGPT.xyz
大模型
Ask
alpha
关键词
heavy-tailed gradients
搜索结果 - 2
简化的简单降维的大尾部私密随机凸优化近乎最优解
我们研究了具有重尾梯度的差分隐私随机凸优化(DP-SCO)问题,在这里我们假设样本函数的 Lipschitz 常数具有 k 次矩界而不是统一界。我们提出了一种新的基于约束的方法,使我们能够在重尾设置中获得首个最优速率(达到对数因子),在(ε
→
PDF
a month ago
在分布式学习中管理重尾梯度的改进量化策略
我们提出了一种专门针对重尾梯度进行压缩的新方案,该方案将梯度截断和量化有效地结合在一起,并在通信受限的分布式随机梯度下降框架中进行了巧妙实现,我们通过理论分析和与其他基准的比较实验证明了该方法在管理分布式学习环境中的重尾梯度方面的有效性。
PDF
5 months ago
Prev
Next