利用一阶替代函数进行优化
本文提出了一种可扩展的随机主化最小化方案,能够应对大规模或可能无限的数据集,解决凸优化问题,并开发了几种基于此框架的有效算法,包括一个新的随机近端梯度方法,用于大规模l1逻辑回归的非凸稀疏估计的在线DC编程算法和解决大规模结构矩阵分解问题的有效性。
Jun, 2013
提出了一种增量主化极小化算法,用于最小化连续函数的大量和,研究给出了非凸优化的渐近稳定点保证,并针对凸优化提供了期望目标函数值的收敛速度,在实验中展示了该方法在解决机器学习问题方面的竞争力以及处理非凸性惩罚稀疏估计的实用性。
Feb, 2014
本文研究非凸随机优化和有限和优化问题中的Frank-Wolfe方法,并提出基于方差约减技术的新型非凸Frank-Wolfe方法,证明了其具有比传统方法更快的收敛速度。
Jul, 2016
本文介绍了一种零阶Frank-Wolfe算法,用于解决约束随机优化问题,该算法与基本Frank-Wolfe算法同样无需投影,且不需要计算梯度,可收敛于凸平滑约束下的优化目标函数。同时,本算法在具有每次迭代一个方向导数的所有零阶优化算法中具有最优维度依赖性。对于非凸函数,本算法的Frank-Wolfe gap为O(d^{1/3}T^{-1/4}),并在黑盒优化设置上进行实验,证明了其效果。
Oct, 2018
本文提供了一种新颖的计算机辅助技术,用于系统地分析面向优化的一阶方法,并且与以往的工作相比,该方法特别适用于处理次线性收敛率和随机预言机。该技术依赖于半定规划和潜力函数,并允许同时获得算法行为的最坏情况保证,并帮助选择适当的参数以调整其最坏情况表现。
Feb, 2019
本文提出了一种称为1-SFW的新的随机Frank-Wolfe算法,通过设计一种新颖的无偏动量估计器,实现了使用每次迭代的单个样品来优化,而无需仔细调整批量大小、步长、学习速率和其他复杂的超参数,并在随机凸优化、随机DR亚模拟最大化问题和一般的非凸设置中达到了最优收敛率。
Oct, 2019
本文介绍了两种新的Frank-Wolfe算法变体,用于随机有限和最小化。这些方法在凸和非凸目标函数方面,都具有最佳的收敛保证。同时,本文提出的两种方法都不需要永久收集大批量数据和完整确定性梯度,可用于优化机器学习等领域中的结构约束问题。
Apr, 2023
通过使用可学习的景观代理(Landscape Surrogate)作为优化器的替代品,可以在学习集成优化中加速优化过程,提供相对稠密和平滑的梯度,在合成问题和真实世界问题中实现优化目标,同时降低对优化器的调用次数,并在计算复杂度高的高维问题上优于现有方法。
Jul, 2023
我们研究了神经网络作为替代模型来近似和最小化优化问题中的目标函数的使用,通过确定适合目前非线性优化测试问题目标函数近似的最佳激活函数来提供证明,我们分析通过插值/回归模型和神经网络获得的函数值、梯度和Hessian矩阵的近似精度,结果显示神经网络在零阶和一阶近似方面表现出较高竞争力(对应较高的训练成本),但在二阶近似方面表现较差。然而,通过将神经网络激活函数与二次插值/回归的自然基组合,可以减少模型参数数量。最后,我们提供了证据表明,包括神经网络在内的任何考虑的替代模型用于逼近优化算法的梯度时,都无法明显改善目前最先进的无导数优化算法的性能。
Nov, 2023
针对一类具有上下级变量耦合的约束双层优化问题,本研究提出了一种新的方法和算法。通过设计平滑的近端Lagrangian值函数来处理约束的下层问题,并将原始问题转化为具有平滑约束的等价优化问题,从而实现了一种适用于机器学习应用的基于近端Lagrangian值函数的非Hessian梯度算法。此外,还针对LV-HBA进行了收敛性分析,不需要对下层问题进行传统的强凸性假设,并且能够处理非单例情况。实证结果验证了该算法在实际性能上的优越性。
Jan, 2024