AAAIAug, 2022

基于自监督的原始 - 对偶学习用于约束优化

TL;DR本文研究了如何训练机器学习模型直接逼近受约束优化问题的最优解,提出了一种新的自监督训练方法 Primal-Dual Learning(PDL),该方法不需要预先解决实例集合或优化程序来进行训练和推理,而是同时训练原始神经网络和对偶神经网络来模仿增广 Lagrangian 方法的轨迹,实验证明 PDL 在非线性优化基准测试中表现出极小的约束违规和微小的最优性差距,与 ALM 优化非常接近,并且在最优性差距、约束违规和训练时间方面表现出更好或相似的性能。