探索健壮神经网络的误分类以增强对抗攻击
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
该研究提出了一种定量指标来评估神经网络模型的内在稳健性,并通过损失可视化的方式解释了对抗攻击和防御机制。该指标具有快速生成、结构和参数规模无关、可靠性高的优点,并提供了一种相对于不同测试设置不变的评估方法。
May, 2019
本文通过经验研究,在对抗训练的模型中发现了分类的精度和稳健性存在类间差异,包括在通常的训练模型中也存在差异。同时,本文还探讨了解决这种类间差异的可能技术和方法。
Oct, 2020
通过稳健优化方法探究神经网络对抗攻击的鲁棒性,设计出对抗攻击和训练模型的可靠方法,提出对于一阶对手的安全保证,并得到针对广泛对抗攻击的高鲁棒性网络模型。
Jun, 2017
通过分析正常和对抗攻击样本的深度神经网络表示之间的差异,研究了对抗攻击的鲁棒性和现有防御机制的普适性,并揭示了 L2 和 Linfinity 范数之间的显著差异。
Aug, 2023
深度学习使我们能够高效地训练复杂数据的神经网络。然而,随着研究的增长,神经网络的几个弱点也被曝光。对抗机器学习是一种特定的研究领域,旨在利用和理解导致神经网络因输入接近原始输入而错误分类的一些弱点。提出了一类称为对抗性攻击的算法,用于在不同领域的各种任务上使神经网络错误分类。随着对对抗性攻击的广泛研究,了解对抗性攻击的分类是至关重要的。这将有助于我们以系统性的方式了解弱点,并帮助我们减轻对抗性攻击的影响。本文对现有的对抗性攻击及其不同角度的理解进行了概述,并简要介绍了现有对抗性防御措施及其在减轻对抗性攻击效果方面的局限性。此外,我们讨论了对抗机器学习领域未来研究的方向。
Aug, 2023
本文研究神经网络在医疗影像和欺诈检测等敏感领域应用时面临的鲁棒性问题和对抗攻击,并提出一种受 Lipschitz 约束启发的正则化技术以提高神经网络的抗干扰能力。在 ImageNet 分类任务中,本文设计的神经网络的准确性和鲁棒性面积(ARA)为 0.0053,是之前最先进技术的 2.4 倍,拓展了理解神经网络决策的重要方向。
Jun, 2019
深度学习领域的对抗攻击和防御是目前研究的活跃领域。本文针对防御方法进行分类,提出了不同的分类方法:通过增加特征向量的类内紧凑性和类间分隔性来提高对抗鲁棒性,减小或移除非鲁棒图像特征来提高对抗鲁棒性。通过这种重新构架话题的方式,提供了新的视角,深入探讨使网络变得更加强健的潜在因素,启发了更多的解决方案。此外,文献中有一些关于对抗防御成本问题和鲁棒性与准确性之间的权衡的论述,但我们提出的分类方法可以解决这些问题。本文提出了几项挑战,以此推动深度学习研究的进一步发展。
Oct, 2019