Nov, 2023
一种可训练的流形在 ReLU 网络中的准确逼近
A trainable manifold for accurate approximation with ReLU Networks
Max Milkert, Forrest Laine
TL;DR我们提出了一种新颖的技术,用于更好地控制 ReLU 激活的神经网络的权重,从而产生更精确的函数近似。我们通过扩展现有的基本组件,将 ReLU 网络编码为复杂的操作,并获得更多线性分段的输出,从而引导网络的训练过程,克服了随机初始化和无辅助梯度下降带来的缺点,提高了对不一定在流形上的函数的逼近效果。