CFA:类别校准的公平对抗训练
基于理论和实证分析,我们演示了当类别之间的距离减小时,鲁棒公平性会恶化的现象。鉴于这些观察,我们引入了一种称为 “距离感知的公平对抗训练(DAFA)” 的方法,它通过考虑类别之间的相似性来解决鲁棒公平性问题。具体而言,我们的方法给每个类别分配不同的损失权重和对抗边界,并调整它们以在相似类别之间促进鲁棒性的权衡。在各个数据集上的实验结果证明,与现有方法相比,我们的方法不仅具有平均鲁棒准确性,而且还显著提高了最差鲁棒准确性,表明在鲁棒公平性方面有了显著的改进。
Jan, 2024
本文提出了平衡对抗训练(Balance Adversarial Training)方法,用于解决在对抗训练中不同类别间的鲁棒性和准确性存在严重失衡的问题。通过对两种不公平现象进行观察,即不同类别的对抗样本生成难度差异(源类别公平)和生成对抗样本时不同类别存在不公平偏向(目标类别公平),引入适当的攻击强度和均匀分布约束等措施,能够显著提升指标和缓解鲁棒公平问题。
Sep, 2022
在这篇论文中,我们提出了一种名为公平感知对抗学习(FAAL)的新的学习范式,通过将鲁棒训练问题重新定义为最小 - 最大 - 最大框架,以确保训练模型的鲁棒性和公平性。具体而言,通过利用分布鲁棒优化,我们的方法旨在在不同类别之间找到最差的分布,解决方法保证了高概率的上界性能。FAAL 可以在仅两个迭代周期内将一个不公平的鲁棒模型调整为公平模型,而不牺牲整体准确性和鲁棒性,实验证明了 FAAL 相对于其他先进方法的卓越性能和高效性。
Feb, 2024
本文通过经验研究,在对抗训练的模型中发现了分类的精度和稳健性存在类间差异,包括在通常的训练模型中也存在差异。同时,本文还探讨了解决这种类间差异的可能技术和方法。
Oct, 2020
研究发现,对于一些平衡的数据集,在执行 Adversarial training algorithms 时将出现不同类别的数据准确度和鲁棒性的严重差异,因此提出了一种名为 Fair-Robust-Learning 的框架以解决这种不公平的问题,并在实验中验证了其有效性。
Oct, 2020
本文研究了对抗训练中的类别鲁棒性问题,提出了一种基于温度的 PGD 攻击方法,并对训练和推断阶段进行了改进,以降低类别鲁棒性差异。实验结果表明,该方法可以取得更高的攻击成功率。
May, 2021
本文提出了一种名为 Adversarial Feature Alignment (AFA) 的新型对抗性训练方法,旨在解决深度学习模型在安全性上平衡鲁棒性和准确性的挑战。通过利用对比学习的优化算法,AFA 减轻特征不对齐可能导致误分类的风险,并在实验中展示了其卓越性能。
Feb, 2024
本文提出了自适应特征对齐的方法,通过预测双 BN 结构中的融合权重,不引入任何超参数,且在不牺牲模型标准精度的情况下,有效地提高了模型的鲁棒性,并且在 CIFAR-10、SVHN 和 tiny-ImageNet 数据集上全面超越了现有的技术。
May, 2021