公平稳健训练的样本选择
本篇论文研究了深度学习模型在公平性和鲁棒性交叉应用中面临的挑战,并探讨了取得公平性如何降低模型对抗采样的鲁棒性的现象。作者提出了一种简单而有效的解决方案来平衡公平性和鲁棒性之间的权衡关系。
Nov, 2022
本文研究了对抗攻击和训练在公平性和准确性两个方面的影响,提出了一种公平性攻击的统一结构,并证明了不同概念的公平性攻击的等价性。研究表明,统一对抗性训练和攻击在公平性和准确性方面可以同时提高性能。
Mar, 2023
我们考虑培训机器学习模型,使其在输入的某些敏感扰动下表现不变的公平性,这种公平性的形式化表述为个体公平性的一种变体,并使用分布鲁棒优化方法在训练期间强制执行。我们还展示了该方法在两个容易受到性别和种族偏见影响的机器学习任务上的有效性。
Jun, 2019
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显著降低测试准确率,本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
Jun, 2020
研究发现,对于一些平衡的数据集,在执行 Adversarial training algorithms 时将出现不同类别的数据准确度和鲁棒性的严重差异,因此提出了一种名为 Fair-Robust-Learning 的框架以解决这种不公平的问题,并在实验中验证了其有效性。
Oct, 2020
通过对抗训练技术来开发更公平的深度神经网络 (DNNs) 以减轻已知存在的固有偏见。我们提出了一个强大的优化问题,并证明这可以改进多个数据集的公平性,包括合成数据和真实世界数据,使用一个仿射线性模型。通过利用二阶信息,我们能够比纯一阶方法更高效地找到优化问题的解决方案。
Jan, 2024
提出了首个具有收敛保证的随机分布鲁棒公平性框架,不需要对因果图的了解,在分布转移的环境中将公平推断制定为 $L_p$ 范数不确定性集合下的分布鲁棒优化问题。
Sep, 2023
现有的算法公平性方法旨在确保人类决策者与算法决策完全一致,然而,在人工智能与人类协作中,与算法的完全一致很少实现或者甚至是不可取的。我们提出了 “合规性鲁棒公平算法推荐” 概念,它能够保证在决策中改善公平性,无论人类的合规模式如何。然而,我们发现设计同时具备独立公平性、合规性鲁棒公平性和比人类决策更准确的算法推荐可能是不可行的,因此,如果我们的目标是改善人工智能与人类协作的公平性和准确性,可能不应强制执行传统的公平性约束。
Oct, 2023
提出了一种使用 “fairness confusion” 概念的方法来平衡准确性和个体公平性之间的关系,使用由 “fairness confusion directed gradient search” 制作的敌对扰动的方法来改善深层神经网络的 “accurate fairness”,提高准确性和个体公平性。
May, 2023
通过引入多目标优化问题来平衡公平性和数据质量,我们提出了一种找到帕累托最优解的方法,以消除偏见缓解技术对数据集的剔除特定数据点所带来的信任问题,并保证子集对整体人群的公平性、组覆盖率和最小数据损失。
May, 2024