BriefGPT.xyz
Ask
alpha
关键词
variance reduced gradient descent
搜索结果 - 2
满足 KL 条件的差分私有非凸优化及最优速率
我们研究基于差分隐私的私有经验风险最小化问题,其中损失函数满足(γ,κ)-Kurdyka-Lojasiewicz 条件。当损失函数是利普希茨且光滑的时候,我们提出了一种基于方差减少梯度下降的新算法,并在超过经验风险的速率达到了几乎最优。当
→
PDF
8 months ago
通过梯度信噪比(GSNR)加速大批量训练
基于梯度信噪比的方差缩减梯度下降技术对大批量任务进行了快速训练动态的理论分析和泛化分析,证明了其加速训练、缩小泛化差距和提高最终精度的效果。
PDF
10 months ago
Prev
Next