忘却是否是正向迁移的良好归纳偏差?
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了11种持续学习方法和4种基线的方法的强弱和影响。
Sep, 2019
该研究提出了一种基于无监督学习方法的连续学习技术,可以在不需要人工标注的数据的情况下设法学习连续任务的特征表示,并通过使用LUMP技术来缓解灾难性遗忘问题。
Oct, 2021
通过对最优线性分类器表现的差异考虑“表示忘却”的概念,本研究重新审视了一些标准的连续学习基准,并观察到在没有任何明确控制忘却的情况下,模型表示通常会经历较小的表示忘却,并且有时可以与明确控制忘却的方法相当,尤其是在更长的任务序列中。我们还展示了表示忘却如何推动我们对于连续学习中模型容纳能力和损失函数影响的认识。基于这些结果,我们提出一个简单但是竞争力强的方法是,在构建旧样本的原型时,通过标准的有监督对比学习来不断地学习表示。
Mar, 2022
本研究探讨大规模预训练模型在下游持续学习场景中的作用,发现使用非参分类器可以在低计算开销下达到合理的CL性能;解释了更广泛数据预训练模型的表现,探讨了它们的表征相似性和迁移属性;展示了自监督预训练在下游领域上的有效性,和提高潜在CL效果的方向。
Apr, 2022
本文研究了连续学习和迁移学习之间的纠缠关系,提出了一种新方法Transfer without Forgetting来解决预训练网络在后续任务中遗忘知识的问题,并证明其在各种数据集和不同缓冲区大小下都能显着优于其他连续学习方法,平均提高了4.81%的类增量准确性。
Jun, 2022
CUBER是一种用于关键层有积极相关性的老任务的前向知识传递和反向知识传递来提高连续学习中表现的方法,它可以在无数据回放的情况下实现积极的反向知识传递,并且在已有CL基准测试中表现优异。
Nov, 2022
本文研究神经网络在不断学习时如何学习和忘记其代表特征并引入了任务排除比较等新的分析技术。研究发现大部分特定任务的特征很快被遗忘,但回放和代表特征学习等方法可影响代表特征及其品质与学习绩效的紧密相关性。
Apr, 2023
遗忘是一个在深度学习中广泛存在的现象,涉及到持续学习、生成模型、联邦学习等领域,在特定情况下遗忘可以具有积极的作用,如隐私保护场景。本综述旨在全面了解遗忘现象,探索不同领域对遗忘的理解,并通过借鉴各领域的思想和方法找到潜在的解决方案。将遗忘研究的边界扩展到更广泛的领域,希望在未来的工作中促进对遗忘的减轻、利用或甚至接纳的新策略的发展。
Jul, 2023
通过观察对神经网络输出的对比损失的冗余引发能力,我们的方法利用新任务的前几个样本来识别和保留对神经网络传递能力最有贡献的参数,从而使网络的其余部分能够学习新特征,并在诸如CIFAR10和TinyImagenet等基准计算机视觉数据集上证明了在任务增量、类别增量和领域增量持续学习场景中的最先进性能。
Nov, 2023