关键词non-convex objective functions
搜索结果 - 3
- 量子 Langevin 动力学优化
利用量子朗之万动力学 (QLD) 解决优化问题,特别是对传统梯度下降算法的障碍较大的非凸目标函数进行研究,证明了在凸景观中 QLD 的收敛性,通过数值实验和与传统算法的比较,提出了一种优于其他算法的时间相关的 QLD 算法。
- 深度神经网络在局部 Lajasiewicz 条件下随机梯度下降的收敛
在考虑非凸目标函数的随机梯度下降的情况下,我们扩展了 Chatterjee(2022)的全局收敛结果。我们证明,如果我们初始化到一个局部区域,其中 Lajasiewicz 条件成立,那么在该局部区域内,具有正概率的随机梯度迭代会收敛到全局最 - ICLR关于隐式深度学习的理论:隐式层的全局收敛性
本文基于深度平衡模型,分析其具有非凸目标函数和非线性权重矩阵的回归与分类问题的梯度动态,证明了在没有对模型宽度的任何假设的情况下会以线性速率收敛到全局最优解,同时关注了隐式层的隐式偏差和其与浅层显式层的动态的关系。