BriefGPT.xyz
大模型
Ask
alpha
关键词
non-convex loss function
搜索结果 - 5
AAAI
大规模非凸随机约束分布鲁棒优化
该论文主要研究了分布鲁棒优化(Distributionally Robust Optimization,DRO)中的约束问题,针对非凸损失函数提出了一种随机算法并进行了性能分析,证明了该算法能够找到一个满足 ε- 稳定点,而且计算复杂度为
→
PDF
3 months ago
在神经网络中围绕宽平坦最小值塑造学习模式
本文研究了具有随机权重的一层和两层神经网络在非凸损失函数情况下的学习行为,引入了宽平原(WFM)这一概念,并探索了 WFM 如何出现以及在学习中起到什么作用。
PDF
5 years ago
非光滑非凸正则化优化的简单随机梯度方法
本研究旨在探讨优化非光滑非凸正则化器下的平滑非凸损失函数的随机梯度方法。我们提出了两种简单的随机梯度算法,对于有限总和和一般随机优化问题,相较于现有技术水平,其具有更优的收敛复杂度。同时,我们在经验风险最小化中比较了两种算法的实际表现。
PDF
5 years ago
ICML
抵御拜占庭容错分布式学习的鞍点攻击
该研究探讨了在 Byzantine 设置下使用鞍点来最小化非凸损失函数的鲁棒分布式学习算法,提出了一种名为 ByzantinePGD 的算法来逃脱鞍点并收敛到真实局部最小值,通过三种鲁棒梯度估计器的性能特征,论证了它们在低维和高维时的近最优
→
PDF
6 years ago
NIPS
重新审视差分隐私的经验风险最小化问题:更快且更广泛
本文研究不同设置下差分隐私经验风险最小化问题,提出了比以前更少的梯度复杂度的算法,并从凸损失函数推广到满足 Polyak-Lojasiewicz 条件的非凸函数,给出比传统算法更紧的上界。
PDF
6 years ago
Prev
Next