MMJun, 2022

约束引导梯度下降:不等式约束指导下的训练

TL;DR本研究提出了约束引导梯度下降 (CGGD) 框架,使得域知识可以注入到神经网络的训练过程中,其中域知识被假定为一组硬不等式约束的连词,相比于其他神经符号方法,该方法使得模型收敛并满足数据集上的任何不等式约束,同时不需要事先将约束转换为某个特定项添加到学习目标中。经实验证明,与先前的工作相比,CGGD 使得训练不再依赖网络的初始化,并提高了所有数据的约束可满足性。