探索稳健特征以提升对抗性鲁棒性
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016
我们证明了,追求对抗鲁棒性和标准泛化之间存在固有的紧张关系,训练鲁棒性模型不仅可能更加费时,也会导致标准准确性的降低,并且这种现象是由于鲁棒分类器学习了根本不同的特征表示方法。
May, 2018
本研究通过使用多个强健度和成功率等措施,在306个模型对之间全面测试了18个ImageNet模型,并揭示了若干新的见解:(1)在分类错误的对数下,经验L2和L∞扭曲度量呈线性比例律;(2)模型架构比模型尺寸更重要;(3)对于相似的网络架构,略微增加网络深度可在L∞扭曲度上提高强健性;(4)存在具有高度敌对可转性的模型,而从一个模型制造的大多数敌对示例仅可以在同一家族内转移。
Aug, 2018
该研究提供了实证和理论证据表明对抗鲁棒性和图像损坏鲁棒性研究项目之间存在紧密联系,从而建议未来的对抗性防御应该考虑评估它们的方法对分布转移的鲁棒性。
Jan, 2019
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019
本文全面综述了深度神经网络在模式识别中的鲁棒性问题,尤其是针对对抗样本的鲁棒性训练方法,从基础概念、理论模型、算法方法等不同角度进行了系统、结构化的调查和讨论。
Mar, 2022
本文介绍了一种基于对抗神经网络(Adversarial Neural Network)的Robust Detector,采用了 Adversarial Image Discriminator 和 Consistent Features with Reconstruction 等方法,大大提高了在PASCAL VOC和MS-COCO数据集上物体检测模型在对抗干扰下的鲁棒性。
Jul, 2022
对抗性示例的存在多年来一直是一个谜团,吸引了广泛的兴趣。本文从一个更大的背景视角重新审视这个理论,发现非鲁棒特征不像人类视为噪声特征那样有用,而具有良好转移性的鲁棒或自然特征更加有用。同时,我们还展示了经过鲁棒特征培训的编码器在AutoAttack下仍然是非鲁棒的,这表明仅凭鲁棒特征可能无法获得可靠的模型鲁棒性。
Oct, 2023
我们提出了一种基于潜在特征解缠的方法,以明确建模并进一步消除导致特征差异的潜在特征,从而提高深度神经网络对抗样本的鲁棒性。实证评估表明,我们的方法超越了现有的对抗微调方法和对抗训练基线。
Jan, 2024