ICLRFeb, 2019

深度神经网络中的信息压缩表现:自适应估计器

TL;DR此研究探讨神经网络采用信息瓶颈理论通过压缩神经网络表示来提高泛化性能。研究结果表明,激活函数的饱和状态并非压缩的必要条件。但是 L2 正则化可以显著增加压缩,同时防止过拟合。在多次正则化后,只有最后一层的压缩与泛化性能呈正相关关系。