Nov, 2023

一种可训练的流形在 ReLU 网络中的准确逼近

TL;DR我们提出了一种新颖的技术,用于更好地控制 ReLU 激活的神经网络的权重,从而产生更精确的函数近似。我们通过扩展现有的基本组件,将 ReLU 网络编码为复杂的操作,并获得更多线性分段的输出,从而引导网络的训练过程,克服了随机初始化和无辅助梯度下降带来的缺点,提高了对不一定在流形上的函数的逼近效果。