神经架构扩张增强对抗性鲁棒性
该论文提出了使用对抗攻击作为函数评估来搜索神经网络体系结构,以自动抵抗这种攻击。实验表明,通过在搜索中添加新的连接方式和卷积操作和连接层的选择,能够进化出对抗样本具有内在准确性和鲁棒性的体系结构,并证明了更具有鲁棒性的网络体系结构的存在以及开发和探索神经网络的新可能性。
Jun, 2019
本文针对深度神经网络(DNN)易受到对抗攻击的问题,通过对网络结构的宽度和深度进行综合研究,发现更高的模型容量并不一定有助于对抗攻击抵抗力的提高,最后一个阶段降低容量实际上可以提高对抗攻击的鲁棒性,同样的参数预算下,存在一种最佳的结构以提高对抗攻击的鲁棒性,并提供了理论分析,这些架构可帮助进行设计更具对抗攻击鲁棒性的 DNN。
Oct, 2021
从结构的角度改进了神经网络的鲁棒性,提出了一种基于架构参数的约束方式,通过单变量对数正态分布逼近了整个网络的 Lipschitz 常数,累积函数约束分布参数可满足信赖度要求,结果表明该算法比各种 NAS 算法搜索的拥有对抗性训练的神经体系结构以及高效的人工设计模型都有更好的表现,对不同数据集进行了多种攻击。
Sep, 2020
我们研究的目标是统一现有作品在架构组件如何影响 CNN 的对抗鲁棒性方面的分歧意见。为了实现我们的目标,我们综合了三个可推广的鲁棒架构设计原则:(a) 深度和宽度配置的最佳范围,(b) 优先使用卷积而非拼贴块的初始阶段,和 (c) 通过采用挤压和激励块以及非参数平滑激活函数的鲁棒残差块设计。通过在广泛的数据集规模、对抗训练方法、模型参数和网络设计空间上进行大量实验证明,我们的原则始终显著提高 AutoAttack 的准确性:CIFAR-10 和 CIFAR-100 上为 1-3 个百分点 (pp),ImageNet 上为 4-9 个百分点 (pp)。代码可以公开访问该 URL。
Aug, 2023
通过一次性神经网络结构搜索,研究了对对抗攻击弹性更强的网络结构模式,并基于这些模式提出了一族更具弹性的网络结构 RobNets。这些结构在多个数据集上表现出更优异的弹性表现,即使具有更少的参数数量,在白盒和黑盒攻击下都表现出 5% 的绝对收益。
Nov, 2019
该研究论文研究了深度神经网络的鲁棒性问题,特别是针对对抗样本的攻击。通过探索神经网络的结构,拓扑结构,预处理和训练策略等方面来提高深度神经网络的抗干扰能力,并且通过引入平滑性惩罚来提高其稳健性。
Dec, 2014
该研究旨在探寻能否通过神经网络的复杂拓扑结构来提升对抗性鲁棒性能力,其发现表明,基于 NAS 的架构对小规模数据集和简单任务具有更好的鲁棒性能力,而随着数据集规模或任务复杂度的增加,传统手工设计的架构具有更好的鲁棒性能力。
Jul, 2020
本研究通过对 DNN 体系结构组件进行大规模系统研究,提炼出 18 个可操作的鲁棒网络设计准则,构建了一系列在参数容量上对抗攻击稳健的模型家族,并介绍了新型 Robust Architecture (RobArch) 模型的应用。通过我们的实验,RobArch 在 RobustBench ImageNet 排行榜上的 AutoAttack 准确性达到了新的 state-of-the-art。
Jan, 2023
本文针对深度神经网络在人脸识别中的鲁棒性进行了研究,分析了深度学习算法的脆弱性,建立了分类器来检测对深度网络中隐藏层的攻击,并提出了多种方法来缓解攻击影响并提高神经网络的鲁棒性。
Feb, 2018
通过研究和比较多种神经网络,本文发现随着图片识别准确度的提高,对抗性攻击虽然越来越容易使模型改变分类决策,但同时攻击的特征也越来越远离与人类视觉识别相关的特征,即使人工以同样方式造成的影响。而通过神经协调器网络的训练,可以使神经网络更加接近人类视觉识别应有模式,从而提高对抗性攻击下的鲁棒性。
Jun, 2023