提出了一种称为 APD 的新型持续学习方法,该方法通过加性参数分解(APD)有效防止灾难性遗忘和顺序敏感性,并在可扩展性、精度和顺序鲁棒性方面明显优于现有的持续学习方法。
Feb, 2019
为解决对于干扰数据的过度拟合而影响泛化效果,我们提出了一种基于稀疏过参数化和隐式正则化的优化方案,通过对标签噪声进行建模和分离,实现了对于训练数据中的噪声数据清洗,最终获得了在多个真实数据集上较先进的测试结果,同时为优化过度参数化模型开辟了许多有趣的方向。
Feb, 2022
深度学习中的稳健泛化是一个重大挑战,特别是当可训练参数的数量非常大时。为了应对这一挑战,我们研究了一种可解释模型,通过分析理解广义表示,并从纪念表示中轻松区分出来。通过在模量算术任务上训练两层神经网络来研究该模型。我们证明:网络在记忆损坏标签及同时实现 100% 泛化的情况下是可能的;记忆神经元可以被识别和修剪,降低损坏数据的准确性,提高未损坏数据的准确性;正则化方法(如权重衰减、dropout 和 BatchNorm)会在优化过程中强制网络忽略损坏数据,在未损坏数据集上达到 100% 的准确性;并且这些正则化方法的效果是可以 “机械解释” 的:权重衰减和 dropout 强制所有神经元学习广义表示,而 BatchNorm 降低记念神经元的输出,并放大广义神经元的输出。最后,我们展示了在正则化的情况下,训练动态包含两个连续阶段:首先,在网络经历 “领悟” 动态过程中,达到高训练和测试准确性;第二,它通过将记忆表示逐渐抹除,从 100% 的训练准确性骤降到 100 (1-ξ)%。
Oct, 2023
本研究提出了一种基于韦布尔混合模型的迭代选择方法来识别干净数据,从而减少网络记忆对虚假标签数据的影响,在模型训练中使用最终的干净子集。
Jun, 2023
研究发现,神经网络在存在噪声或不正确标签的情况下,往往会记住有关噪声的信息。为了减少这种记忆现象,提高泛化能力,本文提出使用一个辅助网络来训练,并利用 Shannon 互信息量化记忆的信息量。在 MNIST、CIFAR-10、CIFAR-100 和 Clothing1M 等数据集上验证了该算法的有效性。
Feb, 2020
本论文提出一种分步训练深度神经网络的方法,称为渐进式提前停止(Progressive Early Stopping, PES),以对抗训练过程中的标签噪声。该方法可以显著提高图像分类质量,并结合现有标签噪声训练方法,达到了最新成果。
Jun, 2021
提出了一种基于早期学习的新型噪声分类技术框架,使用半监督学习的目标概率和正则化项,防止深层神经网络过于依赖错误标注而导致的过拟合现象。测试结果表明,该方法在多个标准基准数据集和实际数据集上均能达到与现有先进技术可比的鲁棒性。
Jun, 2020
本文研究深度学习中记忆化的作用,探讨了容量,泛化,对抗鲁棒性的联系。作者的实验表明,深度神经网络在优化噪声数据和真实数据时存在数量上的差异,但经过适当的正则化调整(如 dropout),我们可以降低其在噪声数据集上的训练性能,同时不影响在真实数据上的泛化能力。研究结果表明,数据集本身在决定记忆化程度时具有重要作用,而基于梯度优化方法的深度网络的泛化性能不太可能由数据集独立的有效容量来解释。
Jun, 2017
探讨在有噪声标签的情况下,过度参数化的深度神经网络的正则化方法,其中比较有效的包括参数与初始化之间的距离和为每个训练示例添加一个可训练的辅助变量,实验结果表明这些方法能够有效提高模型的泛化性,并且泛化误差的上界独立于网络的大小,可达到无噪声标签情况下的水平。
May, 2019
本文探讨了神经坍塌现象及其在分类问题中的应用,提出了限制表达能力的神经网络模型和误差扩散现象的模型,并证明标签平滑方法可以提高分类任务的泛化能力。
Jun, 2022