通过在 MNIST、CIFAR-10 和 Restricted ImageNet 上进行实验,本文在理论上证明了防止预测侵蚀性对抗攻击导致解释差异的正确解释度量是很困难的,并开发了一种仅基于促进稳健解释的解释敏感的防御方案。与对抗训练方法相比,在对大扰动攻击的抵抗中,本文的防御方法实现了稳健分类和稳健解释,表现优于最先进的对抗训练方法。
Jun, 2020
使用对抗生成网络 (GAN) 提出一个通用的多智能体概率预测和跟踪框架,可以更好的对多个实体之间的交互行为进行预测,并在实际车辆行为预测中取得了比传统监督学习更好的性能。
Apr, 2019
在这项工作中,我们提出了一种对抗学习框架,通过使用生成对抗网络 (GANs) 实现 Alice 和 Bob 之间的共同特征表面,以解决针对恶意 RIS 的中间人攻击威胁。我们的模拟结果表明,我们提出的基于 GAN 和符号表示的物理层安全关键生成方法可以在合法用户之间实现高密钥协议率,甚至可以抵抗了拥有合法特征生成知识的中间人攻击威胁,从而为未来 6G 中与不可信任的反射式设备进行安全的无线通信铺平了道路。
Feb, 2024
通过对深度神经网络进行对抗训练,研究评估其对模型的鲁棒性和解释性的影响,证明了这两个问题之间的相关性。
Jul, 2023
本文提出通过对图像进行优化来平衡隐私预算和目标任务分析性能的对抗训练框架,并且使用预算模型重启和集成策略来提高对新的黑客模型的保护性。通过使用两个隐私保护行动识别中的实验,该框架在同时维持高目标任务(行动识别)性能之余,成功抑制了隐私侵犯的风险。
Jul, 2018
本文提出了一种优化型对抗攻击框架,旨在研究基于数据的轨迹预测系统的对抗鲁棒性。通过模拟实验,展示了该攻击框架可以有效地增加不同度量指标的预测误差,甚至可以导致自动驾驶汽车离开道路或与其他车辆碰撞。同时,本文还探讨并提出了一种对抗训练策略来减轻对抗攻击的影响。
Sep, 2022
本研究旨在通过减少神经元的不确定性,提高 DNNs 在整个图像空间的可解释性。通过提出一个新的度量方式、利用对抗样本发现学习后的神经元特征具有歧义性,以及通过一种有着一致性损失的对抗训练算法来提高对抗样本子集上的神经元的一致性
Jan, 2019
研究中提出了一种基于梯度解释性的新策略,通过在易感区域引导对单像素对抗扰动的学习,能在保证对抗性的同时,提高收敛速度,并使攻击难以察觉。这一方法充分利用了解释性方法在解释性以外的任务中的有效性。
该篇研究论文提出了一种名为 Face-Off 的隐私保护框架,旨在通过对用户面部进行策略性扰动来防止它被正确识别,该框架能够欺骗微软、亚马逊和 Face++ 等三种商业人脸识别服务,并且用户研究表明,所进行的扰动对用户的成本是可以接受的。
Mar, 2020
利用对抗性神经网络实现随机机制和互信息隐私的变分近似,优化隐私数据发布机制的信息论最优折衷方案,对合成数据和实际数据集 MNIST 进行了验证实验。
Dec, 2017