本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
该研究提出了一种新的对抗样本攻击方法,考虑到人类感知系统并最大化制作的对抗样本的噪声容忍度,实验结果证明了该技术的有效性。
Jan, 2018
通过在预先训练好的外部模型上找到敌对样本,我们将有害的攻击过程转化为有用的防御机制,并且我们的防御方法比先前的方法更为强大和经济。
本文研究表明即使在物理世界的情境下,机器学习系统仍然容易受到敌对样本的攻击,并通过将手机摄像头获取的对抗性图像输入 ImageNet Inception 分类器,并测量系统的分类精度来证明了这一点。
Jul, 2016
本论文研究了在恶意软件检测任务中制造对抗样本和对抗样本对抗技术的不同方法,并比较了它们对多个数据集的有效性。
Sep, 2019
本文从理论研究角度分析识别器的易受攻击性,识别了对抗例子的的根本限制。通过实验探讨理论在现实世界的问题中的应用以及图片复杂性对分类器抗对抗性的限制。
Sep, 2018
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
本文主要研究了针对神经网络分类器的测试时间攻击检测方法,并在不同数据集和场景下提供了八种最先进的检测器的实验结果,为此研究方向提供了挑战和未来的展望。
May, 2021
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016