本文介绍了针对对抗样本进行防御的困难性,提出了新的方法来评估防御方法的效果并建议研究者和读者使用这些方法以避免常见陷阱。
Feb, 2019
我们对自适应防御策略进行了分类并评估了最新的代表性方法,结果表明在图像分类中这些自适应防御策略没有明显的提高静态防御的水平,同时增加了推理计算。然而,我们仍相信自适应的防御策略是一个有前途的研究方向,并提出了具体的研究建议和评估步骤扩展了 Carlini 等人的清单。
Feb, 2022
该研究提出了一种测试方法以识别弱攻击和防御评估,为了增强透明和信心,将攻击单元测试作为未来强度评估的重要组成部分。
Jun, 2022
通过理论和实证研究,我们解决自适应对手提出的挑战,并开发自适应防御策略,从而确定在部署在现实世界中的基于机器学习的系统中确保鲁棒性的有效方法。
Dec, 2023
本文提出一种名为自适应自动攻击 (Adaptive Auto Attack) 的对抗攻击防御评估方法,旨在提高测试时训练的效率和可靠性,通过自适应的初始化和在线统计抛弃策略,使其消耗远少于现有方法的迭代数,并在广泛使用的防御模型上表现出更低的鲁棒性。
Mar, 2022
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
机器学习系统中的对抗现象给实际应用带来了严重安全威胁,本调查旨在从统一的视角对现有的防御机制进行系统回顾,通过将机器学习系统划分为预训练、训练、后训练、部署和推断等五个阶段,提出明确的分类法,以分析各个防御机制的机制、联系和差异,并激发未来研究开发更先进、全面的防御机制。
本文介绍如何通过建立人们更真实可靠的威胁模型,从而更好地保护机器学习在实际应用中的安全性。
Jul, 2018
该文章回顾了许多现有的针对机器学习模型的对抗攻击,突出了一些尚未解决的挑战,一些特定领域的约束可能会增加制作对抗样本的难度,也强调了如何将这些理论应用到实践的挑战。
Mar, 2023
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。