CVPRFeb, 2019

神经网络激活的齐次线性不等式约束

TL;DR本文提出了一种方法来在神经网络激活中施加均匀的线性不等式约束,以结合数据驱动的训练方法和先前任务的先验知识。该算法可在测试时间内显著加速推理速度,并避免了在每个训练步骤中求解优化问题或手动调整超参数。该方法通过约束变分自编码器进行实验演示。