异步事件驱动数据的对抗性攻击
本文探讨了针对数据驱动应用中出现的恶意攻击对卷积神经网络(CNN)事件原因分析框架的影响,并通过实时数字模拟器(RTDS)生成的数据分析了不同攻击类型和数据访问级别下攻击的有效性和防御机制。
Nov, 2019
本文提出了一种针对图像分类器集合的迭代式对抗攻击方法,通过此方法,在 CAAD 2018 针对性对抗攻击竞赛中获得第五名,该方法提高了黑匣子对抗攻击的成功率。
Nov, 2018
该研究使用一个基于样本性质筛选的简化训练方法,在保持分类结果鲁棒性不变的情况下,将医学图像和自动驾驶等领域的深度神经网络训练时间减少到原来的三分之一。
Mar, 2023
本文提出了 EventDrop,一种简单易于实现的方法,通过删除选择性的事件来增加异步事件数据的多样性,从而提高深度模型的泛化性能,实验证明可以在多种深度网络上显著提高泛化性能。
Jun, 2021
医学深度学习系统可以被巧妙地构造对抗性例子攻击破坏,难以在实际临床设置中应用,本文发现医学深度学习模型对于对抗攻击比对自然图像模型更脆弱,但医学对抗攻击可以通过简单的检测器容易检测出来,这些发现可作为更可解释和安全的医学深度学习系统设计的依据。
Jul, 2019
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
本论文通过对点云模型的对抗攻击提出了全新的统一公式,此方法可以攻击分类模型的功能,考虑到攻击点的感知能力,并确保最小程度上的点操作,实验证明此方法在合成数据和真实数据上均取得了超过 89% 和 90% 的攻击成功率,并仅操作了总点数约 4%。
Aug, 2020
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018