Jun, 2024
ReLU网络输入优化的激活-下降正则化
Activation-Descent Regularization for Input Optimization of ReLU
Networks
TL;DR我们提出了一种新的ReLU网络输入优化方法,明确考虑了激活模式变化的影响。我们分析了输入空间和激活模式空间中的局部优化步骤,提出了具有优越局部下降性质的方法。为了实现这一目标,我们将激活模式的离散空间转化为可微分表示,并提出了改进每个下降步骤的正则化项。我们的实验证明了所提出的输入优化方法在对抗学习、生成建模和强化学习等各个领域中提升了最新技术的有效性。