BriefGPT.xyz
Ask
alpha
关键词
sublinear convergence rate
搜索结果 - 3
面向超参数化高斯混合模型梯度 EM 算法的全球收敛
在过参数化的设置中,我们研究了高斯混合模型(GMM)的梯度期望最大化(EM)算法,通过单个真实高斯分布生成的数据来学习具有 n > 1 个分量的一般 GMM。通过构建一个新的基于似然度的收敛性分析框架,我们严格证明了梯度 EM 以 subl
→
PDF
11 days ago
有序 SGD: 一种新的经验风险最小化随机优化框架
论文提出了一种新的随机优化方法,它有针对性地偏向于高损失值的观测结果,并证明该算法对于凸损失具有亚线性收敛率,对于弱凸损失(非凸)具有关键点,同时在 SVM、逻辑回归和深度学习等模型中获得了更好的测试误差。
PDF
5 years ago
用于非凸优化的随机递归梯度算法
本文研究分析了随机递归梯度算法 (StochAstic Recursive grAdient algoritHm, SARAH) 的 mini-batch 版本,用于解决非凸损失函数的经验损失最小化问题。我们提出了一种子线性收敛率 (对于一
→
PDF
7 years ago
Prev
Next