本文主要研究了针对神经网络分类器的测试时间攻击检测方法,并在不同数据集和场景下提供了八种最先进的检测器的实验结果,为此研究方向提供了挑战和未来的展望。
May, 2021
通过对传统医疗对抗样本的特征进行深入研究,我们发现医学影像的反应性防御机制存在缺陷,并提出一种简单而有效的层次特征约束 (HFC) 方法,通过隐藏目标特征分布中的对抗特征,更高效地绕过一系列最先进的医学对抗样本检测器,这为未来开发更强大的防御手段提供了可能性。
Dec, 2023
针对系统安全和可信度需要进行深入测试的 DNN (DNN 指深度神经网络) 组件,提出了一种基于深度生成模型算法的有效测试方法,以消除无效的测试并提高测试输入的有效性。
Feb, 2021
本研究旨在探究对深度学习语音识别中对抗性样本传递性的影响因素,发现图像与语音识别中对抗性样本传递性的巨大差异,并提出了基于随机梯度集成和动态梯度加权集成的两种新方法,获得了有效的传递性。
Apr, 2023
该论文提出深度学习系统的多层次测试标准 DeepGauge,以应对其漏洞和不足,经过对多个数据集和攻击技术的分析得出结果,有望构建更加稳健的深度学习系统。
Mar, 2018
提出了一种新的基于训练数据行为的测试准则 —— 针对深度学习系统的惊奇足够性 (Surprise Adequacy for Deep Learning Systems, SADL), 通过对实现情况进行评估来指导其使用,该方法通过基于收集数据惊喜的系统性采样,从而提高了系统对对抗样本的分类精度到最高可达 77.5% 的通过退化再训练的方式。
Aug, 2018
本文介绍了一种新的端到端框架来检测深度神经网络中可能存在的对抗样本,采用神经元覆盖率引导测试来分析 DNN 的密集层激活模式,以实现实时检测,能够覆盖各种类型的 DNN 架构,包括 LSTM,防御了最先进的攻击,同时提供确保无法轻易绕过的白盒自适应攻击。
Nov, 2019
基于高频信息增强策略,提出了一种针对对抗性样本的检测框架,可以在不修改现有检测模型的情况下,提高检测器的性能和降低部署成本。
May, 2023
提出了一种新颖的 IDS 结构,它通过结合传统机器学习模型和深度学习模型来增强 IDS 对抗敌对攻击的鲁棒性,该结构包含 DL-based IDS、adversarial example detector 和 ML-based IDS 三个组件,并使用 DL 模型高预测准确性和 DL 模型与 ML 模型之间的低攻击可转移性来改善整个系统的鲁棒性。实验证明,在遭受对抗攻击时,该 IDS 系统在预测性能方面显著提高,高准确率,资源消耗低。
本文从数据分布和不确定性的角度提出了一个分析 AI 系统的框架,并通过大规模实验和深入调查达成了几个对更深入研究 AI 系统的需求和机会的关键发现。
Dec, 2022