本文提出了一种新的对抗训练框架来完成带有分割混淆对抗训练(SCAT)和对比学习的图像修复任务。通过将 SCAT 与标准全局对抗训练相结合,该框架同时具有以下三个优点:修复图像的全局一致性、局部细节特征以及处理任意形状的缺陷。此外,我们还提出了纹理和语义对比学习的损失函数来稳定并改进我们的修复模型的训练,更好地指导修复图像从受损的图像数据点移到真实图像数据点。在两个基准数据集上的广泛实验表明,我们的模型在定性和定量上都具有良好的效果和优越性。
Mar, 2023
本文提出一种新的对未标记数据的敌对攻击方法,并提出了一种自监督对比学习框架来实现无标记数据的敌对训练,旨在最大化数据样本的随机扩增和其实例级对抗扰动之间的相似度。我们在多个基准数据集上验证了我们的方法,发现它在鲁棒精度方面与最先进的有监督敌对学习方法相当,并且对于黑盒和未知类型的攻击具有显着的提高鲁棒性。此外,通过进一步联合微调有监督对抗损失,我们的方法可以获得更高的鲁棒精度,特别是在鲁棒迁移学习方面取得了令人瞩目的结果。
Jun, 2020
本文提出一种称为自定义对抗训练(CAT)的新算法。通过自适应地定制对抗样本的扰动级别和相应的标签,CAT 算法在对抗训练中使得训练样本的多样性增强,取得了比以前的对抗训练方法更好的干净和鲁棒性能。
Feb, 2020
本文提出一种名为 CAT-Gen 的 NLP 模型,通过可控属性控制生成对抗文本,并将生成的对抗例子用于提高模型的鲁棒性。实验表明,与已有的对抗文本生成方法相比,CAT-Gen 能够生成更多样化、更流畅的对抗文本,并且生成的攻击能够更好地抵御模型重新训练和不同的模型结构。
Oct, 2020
连续自适应对抗训练(ACAT)不断地将对抗训练样本整合到模型中,使用实际检测到的对抗数据,增强模型对不断演变的对抗威胁的抵抗能力,同时减轻灾难性遗忘,并降低了对抗样本检测所需的总时间。
Mar, 2024
这篇论文研究了在医学图像数据集中,由于欠拟合和过拟合现象,无法很好地工作的深度学习模型问题,并提出了一种名为 Medi-CAT 的训练策略,采用了大型预训练视觉变换器以克服欠拟合,并采用对抗性和对比性学习技术以防止过拟合,实验结果表明,相比于其他已知方法,这种方法在三个基准数据集上提高了 2% 的准确性,并且相对于基准方法提高了 4.1% 的性能。
Oct, 2023
本研究提出了一种半监督敌对训练过程,通过最小化标签保留输入扰动的最大损失来改进跨语言文本分类,进而为目标语言样本诱导标签以进一步适应模型。与多个强基线比较,我们观察到了在各种语言的文档和意图分类上的显著增益。
Jul, 2020
利用 FACTUAL 框架进行对抗训练和鲁棒性合成孔径雷达目标识别,通过引入逼真的物理对抗攻击方案和线性分类器级联的方法,在干净样本和扰动样本上预训练和微调后,模型在两种情况下的预测准确率分别达到 99.7% 和 89.6%,都优于现有最先进方法。
Apr, 2024
本文探索了对比学习框架中注入对抗扰动的方法,以提高其在无监督下的自我训练的鲁棒性表现。实验表明,该方法可以实现在无标签数据集下的有效增强,从而大幅提升半监督学习的表现。
本文提出课程对抗性训练 (CAT) 的方法,通过产生一系列攻击强度不同的对抗性样本,使用两种技术解决模型遗忘和泛化问题, 并证明 CAT 方法可以将 CIFAR-10 和 SVHN 的经验最坏情况精度大幅提高 25% 和 35%。同时,在非对抗性输入上,该模型的表现与现有最先进模型相当。
May, 2018