深度神经网络自动复制 / 粘贴攻击的诊断
医学深度学习系统可以被巧妙地构造对抗性例子攻击破坏,难以在实际临床设置中应用,本文发现医学深度学习模型对于对抗攻击比对自然图像模型更脆弱,但医学对抗攻击可以通过简单的检测器容易检测出来,这些发现可作为更可解释和安全的医学深度学习系统设计的依据。
Jul, 2019
通过使用少量的样本,本研究提出了三种机制进行训练,其中原型重建是最有效的,生成的对抗性样本可成功地转移至各种图像分类和面部验证模型,最终的应用结果显示我们的方法能够显著降低商业名人识别系统的预测准确率近 15.4%。
Dec, 2020
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
该论文提出基于解释性的对抗样本检测技术,通过对神经元的双向对应推断来对抗样本进行检测,实验表明该方法在检测 7 种不同类型的攻击时能够达到 94% 的准确率, 误判率为 9.91%。
Oct, 2018
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
本研究提出了一种新的对抗性样本检测器,使用情感分析和神经网络中的隐藏层特征映射来对检测模型进行优化。实验结果表明,该检测器在检测对 ResNet 和 Inception 中性网络在 CIFAR-10、CIFAR-100 和 SVHN 数据集上最新攻击时,优于目前的检测算法,仅具有约 200 万参数,耗时少于 4.6 毫秒。
May, 2023
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017