Apr, 2024

度量学习加速可微参数化规划的算子分裂方法收敛

TL;DR通过学习近似度度量方法,提出了一种新颖的学习优化方法,用于加速解决受限制的优化问题,对于包括广义二次规划问题在内的实际问题形式,通过不可微优化可以学习到更好的近似度度量,以增强优化算法的收敛性,并揭示了学习到的近似度度量与优化问题最优解的活动约束之间的强连接,将学习近似度度量视为一种主动集学习的形式。