BriefGPT.xyz
Ask
alpha
关键词
subgradient method
搜索结果 - 5
重新审视亚梯度法:超越 Lipschitz 连续性的复杂度和收敛性
本文研究了基于次梯度方法的非光滑优化问题,针对具有凸性和弱凸性的目标函数,推导了次梯度方法的收敛性和复杂度界限,证明了步长的选取可以控制其移动轨迹,从而保证算法的收敛性。同时,还将该方法拓展到了截断型、随机型、增量型等非 Lipschitz
→
PDF
a year ago
高效 " 通用凸优化的次梯度方法
介绍一种通过使用可行初始点和避免垂直向量投影的简单框架来生成可行迭代序列,并通过每次迭代的线搜索来维护可行性的子梯度方法,避免了传统子梯度法的实用性限制。该算法具有传统方法类似的收敛率,然而误差是相对测量而非绝对测量。
PDF
8 years ago
凸损失函数学习的迭代正则化
本文提出了一种基于次梯度方法的新型迭代正则化形式,经过实验迭代停止可以实现广义化。在再生核希尔伯特空间的非参数设定下,我们证明了在一般正则条件下的有限样本损失风险界。本研究提供了一类高效正则化学习算法,并给出了统计学和优化学在机器学习中相互
→
PDF
9 years ago
应用次梯度方法求解锥优化问题的框架
本研究提出了一种框架,将一般的凸锥优化问题转化为等效的凸优化问题,其唯一的约束是线性方程,目标函数是利普希茨连续的,并且可以应用几乎任何次梯度方法来解决等效问题。
PDF
9 years ago
Wasserstein Barycenters 的快速计算
本文提出两种算法来计算一组经验概率测度的 Wasserstein barycenters,其中包括使用 entropic 正则化来平滑 Wasserstein distance 的方法,并使用矩阵缩放算法计算其梯度,这些算法可用于可视化大量
→
PDF
11 years ago
Prev
Next