用模型遗忘方法提升生成式类增量学习性能
本文介绍了一种称为 Selective Amnesia 的方法,它可以被应用于条件变分似然模型,以进行控制性遗忘来避免模型生成有害、误导或不合适的内容。实验表明,这种方法在不同的模型上都能很好地工作。
May, 2023
本文提出了遗忘与重新学习(forget-and-relearn)是一个有利于神经网络学习的新型方法,通过不断遗忘不必要的信息并强化对不同条件下有用的特征,来塑造模型的学习轨迹。其思想融合了图像分类和语言涌现领域的众多迭代训练算法,并通过遗忘不必要的信息来改善模型。通过分析,提出了关于神经网络迭代训练动态的一致性观点,并提供了一条清晰的路径向更高性能。
Feb, 2022
这份论文调查了机器学习中遗忘的多方面本质,从神经科学研究中得出结论,认为遗忘是一种适应性功能而非缺陷,它能增强学习过程,防止过拟合,并与各种机器学习子领域的应用联系,以提高模型性能和增强数据隐私。此外,本文还讨论了将遗忘机制整合到机器学习模型中所面临的当前挑战、未来方向和伦理考虑。
May, 2024
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023
研究表明,使用简单的组件和一个平衡内部和外部任务学习的损失函数组合已经可以解决神经网络在新任务上学习所导致的经典遗忘现象。同时,报道了在类增量学习中,表示品质较差是另一个使经典遗忘现象出现的原因,并通过适当的正则化程序改进了性能。在这些发现的基础上,研究结果在 CIFAR-100 和 ImageNet 上均取得了国际领先的成果,方法简单易实现。
Feb, 2021
遗忘是一个在深度学习中广泛存在的现象,涉及到持续学习、生成模型、联邦学习等领域,在特定情况下遗忘可以具有积极的作用,如隐私保护场景。本综述旨在全面了解遗忘现象,探索不同领域对遗忘的理解,并通过借鉴各领域的思想和方法找到潜在的解决方案。将遗忘研究的边界扩展到更广泛的领域,希望在未来的工作中促进对遗忘的减轻、利用或甚至接纳的新策略的发展。
Jul, 2023
本文介绍了一种新的增量知识蒸馏策略来解决 Data-Free Class-Incremental Learning(DFCIL)的问题,该策略通过修改交叉熵训练和重要性加权特征蒸馏,提高了 DFCIL 的准确率,并在公共课程增量基准测试中表现出优异的性能。
Jun, 2021
通过对回放类增量学习中发现的精度不平衡现象进行研究,我们提出了一个能够预测遗忘率较高的旧类别并提高其精度的方法,该方法可以无缝地集成到现有的回放类增量学习方法中,并通过广泛的实验证明了其有效性。
Mar, 2024
提出了机器遗忘在图像生成模型中的普适框架,通过计算高效的算法,能够在保留样本上几乎不影响性能,同时有效地从遗忘样本中删除信息,而且不依赖保留样本的可用性,符合数据保留政策。
Feb, 2024
我们提出了一种叫做 PROOF 的模型,它通过训练任务特定的映射来解决 Vision-Language Models 在 Class-Incremental Learning 时候遗忘问题,并且通过融合多模态信息来提高模型的语义表示能力。在九个基准数据集上进行的实验表明,PROOF 达到了最先进的性能。
May, 2023