本文提出了一种训练方法来防止黑盒学习系统受到对抗性示例的攻击,该方法通过在输出类集中增加一个 NULL 标签并训练分类器将对抗性示例分类为 NULL 来阻止其可转让性。实验表明该方法能够有效抵御对抗性示例的攻击,同时在干净数据上保持准确度。
Mar, 2017
该论文介绍了对各种黑盒对抗攻击和防御技术的全面比较研究,旨在提高模型的鲁棒性。
Dec, 2019
本研究介绍了基于模型决策的 Boundary Attack,它比传统基于梯度或得分的攻击更加适用于实际的黑盒模型应用,同时它不需要替代模型,比起传输攻击需要更少的知识,更容易应用,提高了机器学习模型的鲁棒性,同时也引发了有关部署机器学习系统安全性的新问题。
Dec, 2017
该研究论文介绍了如何在低失真路径上发起黑盒攻击,以提高攻击效率和敌对图像的感知质量,并在真实世界系统上进行了实验,验证了该方法在基准分类任务和生物识别及取证等关键应用中的有效性。
Feb, 2019
这篇文章介绍了一种名为 Bayesian Energy-based Adversarial Training(BEAT)的方法,它可以针对基于骨骼的人体活动识别领域普遍存在的黑盒攻击漏洞进行防御,并能够在不影响分类器准确率的前提下,提高分类器的鲁棒性。
Mar, 2022
本文研究了对抗训练在提高图像分类器对白盒攻击的鲁棒性中的有效性,以及在黑盒攻击下的细微差别,并定义了鲁棒性增益的度量指标来衡量其效果。研究表明,尽管对抗训练是提高白盒场景下的鲁棒性的有效方法,但对于更现实的基于决策的黑盒攻击,则可能无法提供如此良好的鲁棒性增益。此外,即使是最小的扰动白盒攻击也可以比常规攻击更快地针对对抗训练过的神经网络收敛。
Jul, 2021
本文介绍了一种基于模型终极预测标签的查询高效边界型黑盒攻击 (QEBA),并在 ImageNet 和 CelebA 数据集上进行了广泛的实验。实验结果表明,与最先进的黑盒攻击相比,QEBA 能够使用更少的查询次数以更低的扰动量实现攻击,并在实际 API 上展示了攻击案例。
May, 2020
本文介绍了针对图像分类器的对抗性贴片攻击的问题,并提出一种名为 IBCD 的两阶段迭代黑盒认证防御方法,旨在提高构架无关的认证防御在黑盒攻击情境下的可行性并检验其有效性和效率。
May, 2023
本文提出了基于加密学的防御机制抵御神经网络的对抗攻击,对于攻击者在灰盒情况下的各种攻击表现出很强的鲁棒性。
Sep, 2018
该研究从学习者和第三方认证者的角度正式研究了分类问题,并考虑了半监督学习框架下 VC - 类的适当学习的可能性和不可能性结果。该研究还探讨了黑盒认证在有限查询预算下的黑盒对手视角,提出了一些预测器和扰动类别的分析,并证明了具有多项式查询复杂性的对手的存在可以暗示存在样本高效稳健的学习者。
Jun, 2020