这篇技术报告介绍了 CleverHans 软件库,它提供标准化的对抗样本构建技术和对抗训练的参考实现,可以用于开发更加健壮的机器学习模型,并提供标准化的基准来评估模型在对抗环境下的性能。
Oct, 2016
本文综述了过去十年中关于对抗机器学习领域的研究,讨论了目前深度学习算法等机器学习算法的安全性问题,提出了未来研究中的挑战与相应的应对措施和设计。
Dec, 2017
该论文对敌对学习进行了现代综述,重点关注了对统计分类器攻击的防御,并对最近关于测试时间逃避,数据污染和反向工程攻击以及对策进行了综述,最后提出了一些未解决问题和未来工作方向。
Apr, 2019
通过对 28 个组织的采访,我们发现行业从业者缺乏保护、检测和响应机器学习系统攻击的战术和战略工具。此文章旨在从开发者/ML工程师和安全事件响应者的角度,阐述了机器学习系统在传统软件安全开发背景下的安全性视图差异,以期鼓励研究人员在对抗ML领域中修订和修改软件安全开发生命周期。
Feb, 2020
本文主要介绍了机器学习算法在数字经济和人工智能等领域中的广泛应用,特别是在安全关键应用领域中的重要性。同时,文章详细介绍了对抗机器学习攻击的原理、攻击类型及当前各种防御机制的深度分析。
Feb, 2022
该论文提出了一个名为BackdoorBox的Python工具箱,实现了代表性和先进的后门攻击和防御,在统一和灵活的框架下。该工具具有三个重要且有前途的特点,包括一致性、简单性、灵活性和共同开发,可帮助研究人员和开发人员轻松地在基准数据集上实现和比较不同方法。
Feb, 2023
本文综述了近期深度学习中对于对抗攻击和防御技术的研究进展,聚焦于基于深度神经网络的分类模型,并进行了对攻击和防御方法的分类和评价,其中重点介绍了正则化方法在提高模型的鲁棒性方面的应用。此外,还探索了新型攻击方式,如基于搜索、决策、降维和物理世界攻击,并提出了对于未来研究的建议。
Mar, 2023
本研究使用恶意软件数据集 ClaMP,对传统的神经网络(NN)和量子神经网络(QNN)进行对抗攻击试验。结果发现,机器学习(ML)和量子机器学习(QML)模型均易受对抗攻击影响,尽管 QNN 在攻击后的精度和召回率方面表现更好,但准确率下降得更为显着。此研究为后续增强 ML 和 QML 模型(尤其是 QNN)的安全性和韧性打下了基础。
May, 2023
本文介绍了一种因果方法ADML,通过量化网络预测的敏感程度和影响,直接估计对抗攻击的因果参数,并在CNN和Transformer等不同架构上进行广泛实验,证明了ADML的优越性和可行性。
Jul, 2023
通过在规模上应用对抗训练,我们引入了一种名为AdvXL的高效训练策略,它能够以可承受的计算成本训练巨型模型和网络规模的数据,从而在ImageNet-1K上建立了新的鲁棒准确性记录。
Jan, 2024