通过对比策略进行终身学习和选择性遗忘
本文针对深度神经网络中可能被攻击者篡改、包含敏感信息的数据进行了选择性遗忘的研究,提出了一种基于优化方法对遗忘过程进行控制的方法,并通过实验结果验证了其有效性。
Dec, 2020
通过观察对神经网络输出的对比损失的冗余引发能力,我们的方法利用新任务的前几个样本来识别和保留对神经网络传递能力最有贡献的参数,从而使网络的其余部分能够学习新特征,并在诸如 CIFAR10 和 TinyImagenet 等基准计算机视觉数据集上证明了在任务增量、类别增量和领域增量持续学习场景中的最先进性能。
Nov, 2023
本文提出了遗忘与重新学习(forget-and-relearn)是一个有利于神经网络学习的新型方法,通过不断遗忘不必要的信息并强化对不同条件下有用的特征,来塑造模型的学习轨迹。其思想融合了图像分类和语言涌现领域的众多迭代训练算法,并通过遗忘不必要的信息来改善模型。通过分析,提出了关于神经网络迭代训练动态的一致性观点,并提供了一条清晰的路径向更高性能。
Feb, 2022
本文探讨了稀疏经验回放对于对抗灾难性遗忘的长期语言学习的作用,特别是对于文本分类和问答任务中的样本采样策略对于模型性能的影响。作者发现,在随机存储整个数据流中的均匀数量的样本的方法下,模型表现高,特别适用低存储容量的情况,这与计算机视觉研究一致。
Oct, 2022
遗忘是一个在深度学习中广泛存在的现象,涉及到持续学习、生成模型、联邦学习等领域,在特定情况下遗忘可以具有积极的作用,如隐私保护场景。本综述旨在全面了解遗忘现象,探索不同领域对遗忘的理解,并通过借鉴各领域的思想和方法找到潜在的解决方案。将遗忘研究的边界扩展到更广泛的领域,希望在未来的工作中促进对遗忘的减轻、利用或甚至接纳的新策略的发展。
Jul, 2023
本文提出了一种选择性正则化方法,使用偏心特征蒸馏方法来判断是否执行模式完成或模式分离,并调节如何转移到前一模型的权重以保持先前知识,该方法在 CIFAR-100,ImageNet-Subset 和 ImageNet-Full 数据集上超越了现有方法的性能。
May, 2023
本文介绍了一种称为 Selective Amnesia 的方法,它可以被应用于条件变分似然模型,以进行控制性遗忘来避免模型生成有害、误导或不合适的内容。实验表明,这种方法在不同的模型上都能很好地工作。
May, 2023
本文研究通过经验重放的方法,利用 “distribution matching” 算法来防止深度神经网络多任务学习中的严重忘却问题。实验探索了不同体验选择策略的优缺点,结果表明分布匹配算法可以成功避免严重忘却问题,并且在所有测试领域中始终表现最佳。同时我们发现,当部分任务的重要性比其他任务更高时,最大化状态空间覆盖率是有福利的。
Feb, 2018
本文提出了一个新的生命周期学习的方法,命名为记忆感知突触 (Memory Aware Synapses),它计算神经网络参数的重要性,并根据重要性进行惩罚以防止重要知识被覆盖,这与大脑学习过程的 Hebb 规则有相关性。在物体识别任务和嵌入学习任务中,该方法表现出最先进的性能。
Nov, 2017