本研究提出了一种名为知识聚合的新型模型复用任务,旨在从多个训练好的教师网络中提取知识,学习一种能够处理综合分类的轻量级学生模型,取得了很好的结果。
Nov, 2018
近期深度学习模型在图像分类或生成等任务中取得了显著的性能,并经常超越人类的准确性。然而,它们在没有访问先前数据的情况下,学习新任务和更新知识可能会遇到困难,这导致了被称为灾难性遗忘的显著准确性损失。本文综述了关于使用梯度下降作为学习算法的现代深度学习模型中解决灾难性遗忘的最近研究,尽管已提出了多种解决方案,但尚未建立确定性的解决方案或关于评估灾难性遗忘的共识。本文对最近的解决方案进行了全面的评述,提出了一个分类法以组织这些解决方案,并明确了这一领域的研究空白。
Dec, 2023
本研究利用师生学习理论框架分析了连续学习训练中避免 “灾难性遗忘” 的问题,发现输入分布相似性小和目标函数的输入输出关系相似性大时,可以有效避免 “灾难性遗忘”,研究结果还揭示了一种特征现象称为超调现象。
May, 2021
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021
通过模拟生物学习机制,文章研究了连续学习以及其在增量深度神经网络中造成的灾难性遗忘问题,并比较了三种增量学习方法的性能。
May, 2024
知识融合旨在学习一个紧凑的学生模型,以处理多个针对各自任务的教师模型的联合目标。我们提出了一种新颖的对比知识融合(CKA)框架,通过引入对比损失和对齐损失来实现类内凝聚和类间分离,以使学生能够学习多个异构教师自任务的适当决策边界。
Jul, 2023
本文介绍了 5 种减轻神经网络灾难性遗忘的机制(规则化,合成,彩排,双重记忆和稀疏编码)并提供了新的指标和基准来直接比较它们,实验结果表明,这些机制对于实现最佳性能而言是至关重要的,但难以完全解决灾难性遗忘问题。
Aug, 2017
针对神经网络在从动态数据分布中连续学习多个任务时逐渐忘记以前学习的知识的问题,提出了一种补充在线知识蒸馏(COKD)的解决方法,成功地缓解了不平衡训练问题并在多个机器翻译任务上取得了实质性的改进。
Mar, 2022
本论文提出了基于深度神经网络的一种新型增量学习方法,该方法基于知识蒸馏并采用一种规范的方式来有效地维护旧模型的表示,以适应新任务,克服了数据访问受限导致的灾难性遗忘问题,并在标准数据集上实现了显著的准确性改进。
Apr, 2022
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020