针对对抗训练的自适应特征对齐
本文提出了一种名为 Adversarial Feature Alignment (AFA) 的新型对抗性训练方法,旨在解决深度学习模型在安全性上平衡鲁棒性和准确性的挑战。通过利用对比学习的优化算法,AFA 减轻特征不对齐可能导致误分类的风险,并在实验中展示了其卓越性能。
Feb, 2024
通过对敏感特征进行公平处理实现公正的推荐系统的研究中,我们提出了特征公平性作为实现各种特征组合下不同群体之间公平处理的基础。通过平衡特征的普适性来提高整体准确性。我们介绍了通过对抗训练实现无偏特征学习的方法,使用对抗扰动来增强特征表示。对抗方可以改善对少数特征的模型泛化。我们根据特征偏差的两种形式:特征值的频率和组合多样性自动调整对抗策略,并根据此调整扰动强度和对抗训练权重。对于组合多样性较少的特征值,我们应用更强的扰动以提高模型的泛化能力,而对于低频特征,增加其权重以解决训练不平衡问题。我们以广泛应用的因式分解机模型为基础,利用自适应对抗扰动(AAF)方法进行研究。在实验中,AAF 在公平性和准确性衡量指标上优于强基准。AAF 在单特征和多特征任务的物品公平性和用户公平性方面表现出色,展示了其多功能性和可扩展性。为了保持较好的准确性,我们发现对抗扰动必须得到很好的管理:在训练过程中,扰动不应过于持续,并且它们的强度应该减弱。
Sep, 2023
通过对特征统计数据直接进行扰动,我们提出了 Adversarial Batch Normalization (AdvBN) 方法,它是一种单一的网络层,可以在训练期间生成最差情况下的特征扰动。通过在扰动的特征分布上对神经网络进行微调,我们观察到网络对各种不可见的分布偏移,包括样式变化和图像损坏,具有更好的鲁棒性。此外,我们证明我们提出的对抗性特征扰动可以与现有的图像空间数据增强方法互补,从而实现改进性能。
Sep, 2020
本文提出了 Adversarial Feature Augmentation 和 Normalization (A-FAN) 方法,旨在将对抗性的特征嵌入到当前的视觉识别模型中,从而提高其分类、检测和分割任务的泛化能力。在各种数据集上的实验证明,A-FAN 可以有效地提高当前视觉识别任务的表现。
Mar, 2021
通过无需预训练或数据集增强的深度卷积神经网络,本研究提出了一种简单且有效的自动面部特征提取解决方案,并在 CelebA 数据集上获得了最新的面部特征分类结果。研究者还通过引入营造自然对抗样本的概念,证明了对于某些特征,深度卷积神经网络对于对抗性输入是鲁棒的,而对于其他特征则不是。
May, 2016
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
本文探讨了在保证深度神经网络(DNNs)在整体上具有抗对抗性的前提下,如何提高每个类别的对抗鲁棒性和公平性,提出了一种基于类别的校准的公平对抗训练框架,命名为 CFA,实验证明该方法显著提高了对抗鲁棒性和公平性。
Mar, 2023
本文研究了利用深度神经网络提取面部特征的鲁棒性,通过生成对抗性样本测试了多种算法的可靠性,并提出了自然对抗样本的概念,发现即使在经过多次训练的情况下,网络仍然存在一些本该被正确分类的对抗样本。
Jan, 2018
本文介绍了目前 CNN 模型容易受到对抗攻击的困境,提出了一种可以利用隐藏组件 LAFEAT 进行攻击的算法,并证明该算法不仅计算效率更高,而且比目前现有的防御技术更为强大。这表明模型鲁棒性可能取决于防御者隐藏组件的有效使用,并且不应从整体的角度来看待。
Apr, 2021
深度伪造技术引发了对数字内容真实性的担忧,需要开发有效的检测方法。然而,深伪技术的广泛应用带来了新的挑战,即敌对攻击。本文介绍了对抗特征相似性学习(AFSL)方法,该方法整合了三个基本的深度特征学习范例,旨在区分真实和伪造实例,并最大化对抗扰动和未扰动实例之间的相似性。此外,我们引入了一种正则化技术,最大化了真实和伪造样本之间的不相似性,确保了这两个类别的明确分离。通过在 FaceForensics++、FaceShifter 和 DeeperForensics 等流行的深伪数据集上进行大量实验,我们的方法明显优于其他标准对抗训练防御方法,这进一步证明了我们的方法在保护深伪检测器免受敌对攻击方面的有效性。
Feb, 2024