对比对抗训练中通过认知失调缓解实现健壮性
本文通过提高对抗性鲁棒性的角度重新审视和推进了对比学习。作者设计了高频组件的对比视图,以及增加伪监督刺激的对比学习来帮助保护模型的鲁棒性。作者提出了一种新的对抗性对比预训练框架 AdvCL, 在多个数据集上展示了其卓越的性能,该框架能够提高跨任务鲁棒性传输,同时不会降低准确性和微调效率。
Nov, 2021
本文探索了对比学习框架中注入对抗扰动的方法,以提高其在无监督下的自我训练的鲁棒性表现。实验表明,该方法可以实现在无标签数据集下的有效增强,从而大幅提升半监督学习的表现。
Oct, 2020
本文提出了一种针对对抗性对比学习的新算法 CLAE,通过使用对抗性样本增强数据并在优化时考虑一个批次中的所有图片,能够更好地定义正负样本,充分提高自监督学习任务的性能和学习能力。
Oct, 2020
该研究提出了一种创新的对抗对比学习框架,通过生成实例级对抗样本和优化对比损失,增强了神经网络对抗攻击和常见扭曲的鲁棒性,同时通过对比学习增强了干净样本与对抗样本之间的相似性,从而使得表示具有对抗攻击和常见扭曲的抵抗力。通过改善对抗和实际应用条件下的性能,该方法旨在增强神经网络在安全关键应用中的鲁棒性,如自主车辆在不可预测的天气条件下行驶。我们预计这个框架将有助于提高神经网络在具有挑战性环境中的可靠性,促进其在任务关键场景中的广泛应用。
Nov, 2023
通过对图结构的适应性敌对攻击评估节点和图分类任务,本研究介绍了一个全面的 GCL 模型鲁棒性评估协议,旨在探索 GCL 方法的鲁棒性,并为潜在的未来研究方向开辟新途径。
Nov, 2023
本文提出了一种名为 Adversarial Feature Alignment (AFA) 的新型对抗性训练方法,旨在解决深度学习模型在安全性上平衡鲁棒性和准确性的挑战。通过利用对比学习的优化算法,AFA 减轻特征不对齐可能导致误分类的风险,并在实验中展示了其卓越性能。
Feb, 2024
本文介绍了一种对抗攻击深度学习模型的新防御方法,即 External Adversarial Training (EAT),它可以有效地解决在 class-incremental continual learning (CICL) 中出现的数据不平衡问题,避免了失真和降低准确性等问题。
May, 2023
该研究通过开发一种统一的概率框架 CEM,提供了关于 Adversarial Training(AT)的概率描述,并将其扩展到了无监督学习场景,提出了一种有原则的方法来开发对抗性学习和采样方法,实验表明,我们得到的采样方法提高了监督和无监督学习的样本质量。
Mar, 2022
本研究提出了 Decoupled Adversarial Contrastive Learning (DeACL) 框架,将 Adversarial Training 和 Self-supervised Learning 分为两个子问题分别处理,使学习无标签鲁棒表示更加简化和高效,并在实验中取得了业界领先的表现。
Jul, 2022
本文提出一种新的对未标记数据的敌对攻击方法,并提出了一种自监督对比学习框架来实现无标记数据的敌对训练,旨在最大化数据样本的随机扩增和其实例级对抗扰动之间的相似度。我们在多个基准数据集上验证了我们的方法,发现它在鲁棒精度方面与最先进的有监督敌对学习方法相当,并且对于黑盒和未知类型的攻击具有显着的提高鲁棒性。此外,通过进一步联合微调有监督对抗损失,我们的方法可以获得更高的鲁棒精度,特别是在鲁棒迁移学习方面取得了令人瞩目的结果。
Jun, 2020