Oct, 2024
收紧训练神经网络的凸松弛:适用于凸形和S形激活的统一方法
Tightening convex relaxations of trained neural networks: a unified
approach for convex and S-shaped activations
TL;DR该研究解决了训练神经网络的非凸特性给优化模型带来的挑战。通过提出一种递归公式,该方法针对多种激活函数(如凸形和S形)提供了紧致的凸化,以便更高效地计算分离超平面并处理非多面体情况。实验结果表明,这些凸近似方法在应用中具有显著的实证优势。