该研究提出了一种 Safe-L2O 框架,以获得优化算法和数据驱动算法的优势,该框架具有收敛保证且利用机器学习实现快速的数据驱动算法。
Mar, 2020
我们证明了随机梯度下降算法可以高效地收敛于未知线性时不变动态系统的极大似然目标函数的全局极值。虽然该目标函数是非凸的,但我们在强但自然的假设下提供了多项式运行时间和样本复杂度界限。尽管线性系统识别已经研究了许多年,但据我们所知,这是我们所考虑的问题的第一个多项式保证。
Sep, 2016
通过识别经典算法服从的关键原则并将其用于优化学习(L2O)中,我们提供了一个综合设计流程,以数据、架构和学习策略为考虑因素,从而实现经典优化与 L2O 之间的协同,形成了学习优化算法的理念。通过设计一种新的增强学习 BFGS 算法并提供数值实验证明其在多种测试环境中的适应性,我们展示了这些新原则的成功。
May, 2024
本文提出了一种现代观点和一般性的数学框架,用于涵盖超参数机器学习模型和非线性方程组的损失景观和高效优化,其中包括超参数深度神经网络,并说明这些系统的 PL$^*$ 条件密切相关,这解释了(S)GD 对全局最小值的收敛,并提出了一个放松 PL$^*$ 条件的方法可应用于几乎超参数系统。
Feb, 2020
本文提出了一种基于数学原理的 L2O 模型,通过数值模拟验证了该模型的理论发现并展示了其超越普通 L2O 模型的优越性。
May, 2023
应用基于微分方程的方法,通过将优化算法与物理系统相联系的思想,研究如何分析梯度下降、坐标梯度下降、牛顿等算法及其加速变体在机器学习中的动态,此分析适用于更广泛的算法和优化问题,超越凸性和强凸性的限制。
Dec, 2016
本文针对非凸非光滑问题提出新的算法稳定性度量方法,同时建立它们与梯度之间的量化关系,并使用采样确定算法导出了随机梯度下降算法和其自适应变种的误差界。
Jun, 2022
本文提出了一种使用健壮控制合成技术来进行算法搜索的方法,以获得在具有任意有限内存的算法上成立的最坏情况下性能保证,并证明了这种方法比先前方法更为有效。
Apr, 2019
本研究通过分析神经网络与算法优化之间的关系,探讨了近期许多工作都关注的神经网络损失动态问题,证明了在 ReLU 激活函数下,NAG 算法可能只是以次线性的速度达到全局最小值,结果表明优化非凸性损失函数实际是在对预测误差进行优化最优化问题。
Oct, 2020
该研究探讨深度网络中的过拟合问题,发现梯度下降在非线性网络中的优化动力学与线性系统是等价的,同时也推广了梯度下降的两个性质到非线性网络中:隐式正则化以及最小范数解的渐近收敛,通过这些性质,可以提高模型的泛化能力,同时在分类任务中也能得到较好的分类误差。
Dec, 2017