通过对抗双机器学习进行因果参数估计来减轻对抗性漏洞
本文利用因果分析来建模敌对攻击的产生过程,并定义敌对分布以形式化敌对攻击的直观;通过因果解释,本文提出了一种由 Causal inspired Adversarial distribution alignment 方法,CausalAdv,以消除自然分布和敌对分布之间差异的方法,并证明了该方法的有效性。
Jun, 2021
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
本文探讨了针对数据驱动应用中出现的恶意攻击对卷积神经网络(CNN)事件原因分析框架的影响,并通过实时数字模拟器(RTDS)生成的数据分析了不同攻击类型和数据访问级别下攻击的有效性和防御机制。
Nov, 2019
通过元学习方法构建的双网络框架,旨在解决深度神经网络在遇到少量样本的新对抗攻击时检测精确度低的问题。在 CIFAR-10,MNIST 和 Fashion-MNIST 三个数据集上实验表明,该方法相比于传统的对抗攻击检测方法具有更高的有效性。
Aug, 2019
深度学习使我们能够高效地训练复杂数据的神经网络。然而,随着研究的增长,神经网络的几个弱点也被曝光。对抗机器学习是一种特定的研究领域,旨在利用和理解导致神经网络因输入接近原始输入而错误分类的一些弱点。提出了一类称为对抗性攻击的算法,用于在不同领域的各种任务上使神经网络错误分类。随着对对抗性攻击的广泛研究,了解对抗性攻击的分类是至关重要的。这将有助于我们以系统性的方式了解弱点,并帮助我们减轻对抗性攻击的影响。本文对现有的对抗性攻击及其不同角度的理解进行了概述,并简要介绍了现有对抗性防御措施及其在减轻对抗性攻击效果方面的局限性。此外,我们讨论了对抗机器学习领域未来研究的方向。
Aug, 2023
本文提出了针对强化学习的对抗攻击,并通过这些攻击提高了深度强化学习算法对参数不确定性的鲁棒性。我们展示了即使是一个简单的攻击也能成功降低深度强化学习算法的性能,并进一步使用工程丢失函数的梯度信息改进了攻击方法,导致性能进一步降低。这些攻击方法被用于训练中,以改善 RL 控制框架的鲁棒性。我们展示了在 Cart-pole,Mountain Car,Hopper 和 Half Cheetah 等 RL 基准测试环境中,对 DRL 算法进行对抗训练可以显著提高其对参数变化的鲁棒性。
Dec, 2017
医学深度学习系统可以被巧妙地构造对抗性例子攻击破坏,难以在实际临床设置中应用,本文发现医学深度学习模型对于对抗攻击比对自然图像模型更脆弱,但医学对抗攻击可以通过简单的检测器容易检测出来,这些发现可作为更可解释和安全的医学深度学习系统设计的依据。
Jul, 2019
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
使用近似乘法器探索深度神经网络针对对抗攻击的鲁棒性改善,将准确的乘法器替换为近似乘法器在 DNN 层模型中,探索了 DNN 在可行时间内针对各种对抗攻击的鲁棒性,结果显示在无攻击情况下由于近似乘法产生了最高 7% 的准确度下降,而在攻击时,鲁棒准确度提高了最多 10%
Apr, 2024