对手感知的持续学习
本文介绍了一种对抗攻击深度学习模型的新防御方法,即 External Adversarial Training (EAT),它可以有效地解决在 class-incremental continual learning (CICL) 中出现的数据不平衡问题,避免了失真和降低准确性等问题。
May, 2023
该研究针对深度学习在不断学习模型中容易受到对抗攻击的问题提出了 Task-Aware Boundary Augmentation (TABA) 的防御方法,并在 CIFAR-10 和 CIFAR-100 上进行了广泛的实验,证明了对抗训练和 TABA 在抵御对抗攻击方面的有效性。
Mar, 2023
本研究旨在使用混合方法来解决连续学习中遗忘的问题,该方法结合了体系结构生长来防止任务特定技能的遗忘,并采用经验回放方法来保存共享技能。研究结果表明,我们的混合方法在单个数据集和多个数据集的类增量学习中都表现优异。
Mar, 2020
对记忆型持续学习算法的对抗鲁棒性进行研究,提出了一种新的对抗鲁棒记忆型持续学习方法,通过调整数据的逻辑值来减轻敌对样本导致的过去信息遗忘,并通过梯度选择机制克服有限存储数据导致的梯度混淆,实验结果表明该方法在对抗数据上取得高达 8.13% 的更高准确性。
Nov, 2023
本文提出了一种可扩展的对抗式连续学习(SCALE)方法,使用参数生成器将共同特征转换为任务特定特征和单个判别器在对抗游戏中诱导共同特征。该方法通过类元学习的方式进行训练,使用三个损失函数的新组合。SCALE 方法在准确性和执行时间方面优于突出的基线。
Sep, 2022
基于提示的方法在连续学习中为数据隐私问题提供了前沿解决方案,但在面向多个数据提供方且禁止长期存储私人用户数据的情景中,其出色的记忆能力可能成为双刃剑,因为它可能在从私人用户数据中学习时无意识地保留注入的有毒知识。本文针对这一问题,揭示了连续学习面临的一个潜在威胁:后门攻击,该攻击在特定触发器存在时驱动模型追随预设的对抗目标,在处理干净样本时依然表现正常。我们指出了对增量学习者执行后门攻击面临的三个关键挑战,并提出相应的解决方案:(1)可传递性:我们使用一个替代数据集,并操纵提示选择,将后门知识转移到其他数据提供方的数据上;(2)弹性:我们模拟受害者的静态和动态状态,确保后门触发器在强烈的增量学习过程中保持稳健;(3)真实性:我们应用二元交叉熵损失作为反作弊因素,防止后门触发器退化为对抗性噪声。大量的实验验证了我们的连续后门框架,在各种基准数据集和连续学习者上取得了高达 100%的攻击成功率,进一步的消融研究证实了我们贡献的有效性。
Jun, 2024
机器学习系统的安全性和可靠性需要对抗鲁棒性。然而,由于神经网络在学习新任务时容易忘记先前的对抗鲁棒性,复杂的防御算法所获得的对抗鲁棒性很容易被抹去。为了解决这个问题,我们提出了一种名为 “双梯度投影” 的方法,通过将权重更新的梯度正交投影到两个关键子空间上,实现连续鲁棒学习,这两个子空间一个用于稳定平滑的样本梯度,另一个用于稳定神经网络的最终输出。四个基准测试的实验结果表明,我们提出的方法有效地保持了连续鲁棒性,对抗强对抗攻击的效果优于结合现有防御策略和连续学习方法的基准线组成的方法。
Feb, 2024
该论文在构建一个统一的概念和实验框架中,研究了解决神经网络过度拟合的方法,描述了增量学习算法的六个重要属性,探讨了过去样本选择的效用,并提供了可重现性的开源存储库。
Nov, 2020
本论文提出了一种称之为强化连续学习的方法,该方法通过巧妙设计的强化学习策略为每个任务搜索最佳神经架构,不仅能够在防止灾难性遗忘方面有很好的性能,还能够适应新任务。在 MNIST 和 CIFAR-100 数据集的连续分类任务实验中,该方法优于现有的深度网络连续学习替代方案。
May, 2018