Oct, 2023

理解还是不理解:在损坏的算法数据集上分解概括和记忆

TL;DR深度学习中的稳健泛化是一个重大挑战,特别是当可训练参数的数量非常大时。为了应对这一挑战,我们研究了一种可解释模型,通过分析理解广义表示,并从纪念表示中轻松区分出来。通过在模量算术任务上训练两层神经网络来研究该模型。我们证明:网络在记忆损坏标签及同时实现 100% 泛化的情况下是可能的;记忆神经元可以被识别和修剪,降低损坏数据的准确性,提高未损坏数据的准确性;正则化方法(如权重衰减、dropout 和 BatchNorm)会在优化过程中强制网络忽略损坏数据,在未损坏数据集上达到 100% 的准确性;并且这些正则化方法的效果是可以 “机械解释” 的:权重衰减和 dropout 强制所有神经元学习广义表示,而 BatchNorm 降低记念神经元的输出,并放大广义神经元的输出。最后,我们展示了在正则化的情况下,训练动态包含两个连续阶段:首先,在网络经历 “领悟” 动态过程中,达到高训练和测试准确性;第二,它通过将记忆表示逐渐抹除,从 100% 的训练准确性骤降到 100 (1-ξ)%。