脑洗:一种用于忘记的连续学习中的中毒攻击
本书章节探讨了持续学习的动态,即从非固定数据流中增量学习的过程。尽管对于人脑来说是一种自然的技能,但对于人工神经网络来说却非常具有挑战性。这是因为当学习新知识时,这些网络往往会迅速而彻底地忘记之前所学的知识,这一现象被称为灾难性遗忘。特别是在过去十年中,持续学习已成为深度学习中被广泛研究的主题。本书章节回顾了该领域产生的见解。
Mar, 2024
通过研究任务增量设置和在线连续设置,本文提出了一些方法以解决神经网络的严重遗忘问题,并在不同的基准测试和学习序列上进行了评估,显示了连续学习技术现在的发展和应用面临的挑战。
Oct, 2019
本文提出通过增加可学习的随机图来维护和重放以前样本的小型陈情表记忆,来解决非静态分布中可用数据的持续学习问题的方法。在多个基准数据集上的实证结果表明,该模型持续胜过最近提出的基线方法,用于无任务的持续学习。
Jul, 2020
本文研究了基于任务增量分类的持续学习方法,提出了一种新的框架来确定持续学习者的稳定性与可塑性的权衡, 并通过三个基准测试以及综合实验比较了 11 种持续学习方法和 4 种基线的方法的强弱和影响。
Sep, 2019
机器学习系统的持续学习能力受到灾难性遗忘的限制,本文提出一种新的概念性方法来解决持续分类中的问题,通过区分需要记忆的类别特定信息和总结泛化的类别无关知识,并且通过利用类别无关网络来执行分类,提高随时间推移过去任务的准确性,同时支持开放式分类和一次性泛化模型。
Dec, 2023
本文研究神经网络存在的遗忘问题以及连续学习的解决方案,通过重放机制和元学习的结合,发现引入元学习可以解决传统重放机制在每个任务分配的内存有限时容易导致失效的问题,并在保证学习效率和准确性方面具有优势。
Mar, 2021
遗忘是一个在深度学习中广泛存在的现象,涉及到持续学习、生成模型、联邦学习等领域,在特定情况下遗忘可以具有积极的作用,如隐私保护场景。本综述旨在全面了解遗忘现象,探索不同领域对遗忘的理解,并通过借鉴各领域的思想和方法找到潜在的解决方案。将遗忘研究的边界扩展到更广泛的领域,希望在未来的工作中促进对遗忘的减轻、利用或甚至接纳的新策略的发展。
Jul, 2023
在当前深度学习时代,为了在训练神经网络时使用随机梯度下降处理非平稳流数据时减轻遗忘现象,我们采用元学习范式来结合神经网络的强表示能力与简单统计模型对遗忘现象的抵抗能力,在我们的新颖元持续学习框架中,持续学习仅在统计模型中进行,而神经网络在原始数据和统计模型之间进行元学习,由于神经网络在持续学习过程中保持不变,它们免受遗忘现象的影响。该方法不仅实现了显著提高的性能,而且具有出色的可伸缩性,由于我们的方法与领域和模型无关,因此可以应用于各种问题,并与现有模型架构轻松集成。
May, 2024
本文提出了一个用于处理深度神经网络中的灾难性遗忘问题的概念简单、通用且有效的框架,通过优化神经结构和参数学习等两个组件,不仅可以直观有意义地演化神经结构,而且在实验证明了该方法具有很强的缓解灾难性遗忘问题的能力,此方法在连续学习的设置下,优于 MNIST、CIFAR100 和 Visual Domain Decathlon 数据集上的所有基线。
Mar, 2019