本篇文章提出了一种遗忘技术,可以在大规模视觉分类任务中从网络训练的权重中移除一部分训练样本的影响,同时在混合隐私设置中保留核心样本的信息,采用合适的线性逼近替换标准深度网络可以实现相当的精度且达到最前沿的效果。
Dec, 2020
介绍了一种针对深度神经网络的数据遗忘的方法,通过修改权重,使其不再包含特定的训练数据,并且减小了权重中信息泄漏的可能。
Nov, 2019
研究神经网络在单分类任务训练中的学习动态,发现在缺乏明显分布偏移的数据情况下,存在相关遗忘现象,某些样例更容易被遗忘,而基于遗忘动态可以从训练数据集中省略部分例子却仍能保持最佳泛化性能。
Dec, 2018
基于对比策略的学习、选择性遗忘 (LSF) 框架使得长期学习中忘却和记忆不同类别可以互相独立,通过维护或扰乱特征分布,在四个基准数据集上实验表明我们的方法达到了最新的最优结果。
May, 2024
遗忘是一个在深度学习中广泛存在的现象,涉及到持续学习、生成模型、联邦学习等领域,在特定情况下遗忘可以具有积极的作用,如隐私保护场景。本综述旨在全面了解遗忘现象,探索不同领域对遗忘的理解,并通过借鉴各领域的思想和方法找到潜在的解决方案。将遗忘研究的边界扩展到更广泛的领域,希望在未来的工作中促进对遗忘的减轻、利用或甚至接纳的新策略的发展。
Jul, 2023
本文提出了遗忘与重新学习(forget-and-relearn)是一个有利于神经网络学习的新型方法,通过不断遗忘不必要的信息并强化对不同条件下有用的特征,来塑造模型的学习轨迹。其思想融合了图像分类和语言涌现领域的众多迭代训练算法,并通过遗忘不必要的信息来改善模型。通过分析,提出了关于神经网络迭代训练动态的一致性观点,并提供了一条清晰的路径向更高性能。
Feb, 2022
这份论文调查了机器学习中遗忘的多方面本质,从神经科学研究中得出结论,认为遗忘是一种适应性功能而非缺陷,它能增强学习过程,防止过拟合,并与各种机器学习子领域的应用联系,以提高模型性能和增强数据隐私。此外,本文还讨论了将遗忘机制整合到机器学习模型中所面临的当前挑战、未来方向和伦理考虑。
本文介绍了一种消除深度神经网络对训练数据的依赖性的新方法,通过添加与损失梯度共同作用的噪声来实现不断遗忘,同时利用神经切向核的激活和权重动态之间的联系计算信息。
Mar, 2020
本文介绍了一种称为 Selective Amnesia 的方法,它可以被应用于条件变分似然模型,以进行控制性遗忘来避免模型生成有害、误导或不合适的内容。实验表明,这种方法在不同的模型上都能很好地工作。
May, 2023
研究提出一种基于变分推理的差分隐私连续学习框架,该框架利用旧数据的差分隐私生成模型估计当前模型下旧数据的可能性,以解决机构删除历史数据的隐私问题所导致的神经网络记忆降解问题。
Feb, 2019