本文研究两种生物学机制在对抗性鲁棒性方面的角色,并且通过消融实验证明了非均匀采样和多重感受野存在能够提高神经网络对小的对抗性扰动的鲁棒性。
Jun, 2020
本文研究模仿灵长类动物视觉系统中的神经表征可以产生对抗性稳健的人工视觉系统的想法。通过攻击猴子脑活动的方法,发现猴子的视觉系统对抗扰动的敏感度与稳健训练的人工神经网络相当。
Jun, 2022
应用生物物理学原理进行非线性计算后,我们开发了一种方案来训练深度神经网络以使它们对抗性攻击具有强鲁棒性。该方案生成高度非线性,饱和的神经网络,即使在没有遭受敌对的选择性训练样本的情况下,在 MNIST 上也实现了状态的最先进表现。
Mar, 2017
本研究从频谱的角度探讨对抗性训练机制(AT),展示在低频区保留偏向形状的表示能够提高深度神经网络(DNNs)的鲁棒性,并提出了一种名称为 “频谱对齐正则化”(SAR)的训练方法,在多个数据集和攻击下显著提高 DNNs 的鲁棒准确性。
Jun, 2023
提出了一种使用单独的学习类条件数据分布来执行分析合成的新型鲁棒性分类模型,其在 MNIST 数据集上对 L0,L2 和 L 无穷小扰动都具备最先进的鲁棒性,攻击结果在正常类和对抗类之间呈现明显的感知边界。
May, 2018
本文全面综述了深度神经网络在模式识别中的鲁棒性问题,尤其是针对对抗样本的鲁棒性训练方法,从基础概念、理论模型、算法方法等不同角度进行了系统、结构化的调查和讨论。
Mar, 2022
运用多任务学习方法使深度神经网络对图片失真有着较好的鲁棒性,研究结果表明,从灵长类的视觉皮层中提取归纳偏见,使神经网络更类似于人类视觉系统,提高了其在面对失真问题时的效率。
Jul, 2021
本文提出了一种网络权重初始化的方法,使其能够在更高噪声水平下学习,同时评估了在 MNIST 和 CIFAR10 数据集上增强对抗噪声对学习范围的影响,并通过对简单多维伯努利分布的理论结果进行研究,提出了一些关于 MNIST 数据集可行扰动范围的见解。
Mar, 2020
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
该研究提出了一种新的对抗样本攻击方法,考虑到人类感知系统并最大化制作的对抗样本的噪声容忍度,实验结果证明了该技术的有效性。
Jan, 2018