- 关于 Brenier 的极分解的神经实现
Brenier 在 1991 年证明了一条定理,将平方矩阵的 QR 分解(分解为 PSD × unitary)推广到任何向量场 F: R^d → R^d。这一被称为极分解定理的定理指出,任何场 F 都可以通过凸函数 u 的梯度和保测度映射 - 学习经验 Bregman 散度用于不确定距离表示
本文介绍了如何通过深度学习,从数据中直接学习经验 Bregman 分歧,然后在五个公开数据集上展示了该方法的有效性,特别是在模式识别问题方面。
- 非光滑对数凹情况下的 Langevin Monte Carlo 算法
研究 Langevin Monte Carlo 算法在凸函数情况下的收敛性,其中潜在函数在定义域上是全局 Lipschitz 并且通常是任意凸集合上有限数量仿射函数的最大值,与大多数现有工作不同的是潜在函数没有被假设为梯度 Lipschit - ICML可分数据上广义间隔最大化器 (GMM) 的性能分析
本文研究了一种更一般的情形,其中逻辑模型的底层参数具有某些结构,并引入了更一般的框架(称为 “广义边缘最大化器”,GMM),该模型是逻辑损失的一般线性模型。通过解决一组非线性方程的解来提供 GMM 性能的精确分析,在三种特殊情况下提供了详细 - 使用球优化 Oracle 进行加速
使用 oracle 和 Newton 方法来设计加速算法以达到更优秀的拟合结果。
- 具有生成先验学习的快速可证明 ADMM
本文提出了一种线性化的 ADMM 算法,用于最小化一个凸函数在非凸约束下的解,旨在解决变量处于神经网络范围内的约束问题,并给出了这种算法在 feedforward 架构下的性能特征,相比于梯度下降法更加高效。
- 在 Hölder 连续性和一致凸性下高阶算法的统一加速
通过基于近端法的直观高阶优化算法,提出了一种简明的统一加速框架,将 Ne 和 Ma 和 Mo 和 Svaiter 的两种不同高阶加速方法结合在一起,为高阶光滑性条件不明确的情形下提供了第一种应用高阶方法的方法,用实验验证其有效性。
- MM函数相对于集合的条件数
本文研究了不同 iable 凸函数的条件数及其与其性质和一阶方法的线性收敛性之间的关系,提出了相对于参考凸集和距离函数对的可微凸函数的相对条件数,并在特定条件下对其进行了限定。
- 一种普适最优的多阶段加速随机梯度方法
研究如何在存在梯度估计噪声的情况下,通过使用多阶段加速算法,探讨最小化强凸光滑函数的问题,并通过采用特定的重启和参数选择,实现在确定性和随机情况下的最佳速率,以及在不知道噪声特性的情况下操作。
- NIPS使用最优传输理论分析过参数化模型上梯度下降的全局收敛性
利用粒子混合模型及连续时间梯度下降对机器学习与信号处理中的测量值进行凸函数最小化,特别是在使用单个隐藏层的神经网络进行训练时,可通过 Wasserstein 梯度流达到全局最小值。
- 高维随机零阶优化
本文介绍了使用随机零阶查询优化高维凸函数的问题,提出了两种算法,并表明两种算法只依赖于问题的环境维度的对数收敛率。实证研究证明了理论发现,并表明我们设计的算法在高维场景中优于经典的零阶优化方法。
- MM使用有界宽度和 ReLU 激活的深度神经网络实现通用函数逼近
本文主要研究具有 ReLU 激活和有限宽度的神经网络的深度表达能力,重点探讨了通过这种网络对连续函数进行逼近的最小宽度和所需深度的问题,最终得出了使用宽度为 $d+3$ 的 ReLU 网络可以以任意精度逼近 $d$ 维空间上的任意标量连续函 - 分布式优化的新型随机块坐标原始 - 对偶近端算法
本文提出一种新的原始 - 对偶算法,应用于 minimizing 具有 Lipschitz 可微和两个可能非光滑的凸函数,其一是由线性映射组成。我们设计了一种随机块坐标版本的算法,当所涉及的函数是分段线性 - 二次函数或满足某种二次增长条件 - 加速分布式 Nesterov 梯度下降
本文提出了一种通过本地计算和通信来优化全局函数的分布式优化方法,并探讨了其在不同情形下的收敛速度。
- 复合和弱凸优化问题的随机方法
本研究考虑了具有随机性的凸函数和光滑函数组成并且是弱凸的函数式的最小化问题,开发了一系列随机算法,并通过实验验证了实际效果。
- ICML输入凸神经网络
本文介绍了输入凸性神经网络的架构和方法,通过网络参数的约束使得神经网络输出成为输入的凸函数,实现了高效的推理、优化和学习,在多标签预测、图像完成和强化学习等方面具有更好的性能表现。
- 带有非均匀采样的子采样牛顿方法
考虑使用面向低秩分解的凸函数 F (w) 最小化问题,提出一种基于不均匀子采样和不精确更新的随机牛顿型算法来降低计算复杂度,研究了两个基于块范数平方和块部分杠杆分数的非均匀采样分布,理论和实验都表明此类算法具有线性 - 二次收敛率,相较于现 - 凸函数和光滑映射最小化组合的效率
本文研究了凸函数与唇希茨凸函数的平滑映射组合的最小化算法的全局效率,以及使用近端线性方法结合平滑、快速梯度方案等技术处理只能通过一阶方法解决的子问题时,如何获得高效率。
- 放弃凸性以加速半定规划
本研究探讨了正定半矩阵上凸函数的最小化问题,提出了分解梯度下降算法 (FGD) 的规则,并在标准条件下分析了其收敛性和收敛速率,同时证明了该算法在可重构矩阵分解等实际问题上的有效性,是首篇在一般凸函数下提供收敛率保证的研究。
- 任意采样协同下降 I: 算法与复杂度
研究了平滑凸函数和凸块可分正则化项求和的最小化问题,提出了一种新的随机坐标下降算法,称为 ALPHA,其维护了一个随机的坐标集,可以处理任意的采样,在特殊情况下可以变成梯度下降法,坐标下降法和并行坐标下降法等多种算法,还提供了复杂度分析,可