关于强大而准确分类器的连续性
机器学习系统的安全性和可靠性需要对抗鲁棒性。然而,由于神经网络在学习新任务时容易忘记先前的对抗鲁棒性,复杂的防御算法所获得的对抗鲁棒性很容易被抹去。为了解决这个问题,我们提出了一种名为 “双梯度投影” 的方法,通过将权重更新的梯度正交投影到两个关键子空间上,实现连续鲁棒学习,这两个子空间一个用于稳定平滑的样本梯度,另一个用于稳定神经网络的最终输出。四个基准测试的实验结果表明,我们提出的方法有效地保持了连续鲁棒性,对抗强对抗攻击的效果优于结合现有防御策略和连续学习方法的基准线组成的方法。
Feb, 2024
该研究论文提出了一种正式框架以研究机器学习中敌对示例现象,并利用复分析和全纯性提出了一种针对人工神经网络的稳健学习规则,揭示了该现象与调和函数的联系,并能够解释敌对示例的许多特征,包括可转移性,并为缓解敌对示例的影响铺平道路。
May, 2022
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016
我们展示了机器学习模型的周期性更新可能导致负面翻转,进而影响模型的安全性和性能,为此我们提出了 robustness-congruent adversarial training 方法用于解决这个问题。实验证明,我们的方法可以有效降低负面翻转问题,提高模型的准确性和鲁棒性。
Feb, 2024
我们证明了,追求对抗鲁棒性和标准泛化之间存在固有的紧张关系,训练鲁棒性模型不仅可能更加费时,也会导致标准准确性的降低,并且这种现象是由于鲁棒分类器学习了根本不同的特征表示方法。
May, 2018
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。
Apr, 2018
该研究针对深度学习在不断学习模型中容易受到对抗攻击的问题提出了 Task-Aware Boundary Augmentation (TABA) 的防御方法,并在 CIFAR-10 和 CIFAR-100 上进行了广泛的实验,证明了对抗训练和 TABA 在抵御对抗攻击方面的有效性。
Mar, 2023