本研究提出了一种新型的公平训练算法,该算法在尽可能保护个人隐私的情况下,避免了在机器学习模型中存在不良社会偏见的问题。实验结果显示,该算法可以有效降低社会偏见问题。
Jun, 2021
通过降低训练过程中的 Hessian 矩阵的最大特征值,我们介绍了一种新颖的偏差缓解方法,从而在确保联邦学习参与者之间存在公平的损失景观的基础上实现了无需敏感属性信息的公平。此方法还通过基于错误率和损失景观曲率属性来促进参与模型的聚合,从而在人体中心化的联邦学习系统中实现公平。
Apr, 2024
本文通过领域自适应问题提出了新的理论和建模方法,为在新数据少的目标领域中改善公平性提供了解决方案,实证结果证明该方法能够较少数据的情况下改善公平指标
Jun, 2019
本文提出了一种新的算法来训练公平的 deepfake detection model,以解决使用偏见的数据训练深度学习模型可能会导致不公平表现的问题。实验结果表明,该方法可以提高 deepfake detection 的公平性和鲁棒性。
Jun, 2023
在医学图像诊断中,公平性变得越来越重要。本文提出了一种方法,在测试阶段实现对敏感属性的公平预测,而无需在训练过程中使用此类信息,并通过增强模型特征和规范特征的纠缠关系来提高公平性和准确性。实验结果表明,在两个皮肤病数据集中,该方法能够提高分类的公平性。
Jan, 2024
通过概率插值敏感特征并联合学习组条件缺失概率的变分自编码器,我们提出了公平感知分类模型,以解决隐私、法律问题和个体恐惧所导致的敏感特征全知要求的实际不可行性问题,我们的模型在图像和表格数据集上表现出较好的准确性和公平性平衡。
Feb, 2024
本文讨论了多任务学习中组公平性对于准确性的影响,提出了一种新的测量多维 Pareto 前沿的公平性 - 准确性权衡的方法,并提出了一种多任务感知公平性(MTA-F)方法来改善多任务学习中的公平性。实验结果表明,该方法的有效性。
本文提出了一种用于多类分类的算法公平性方法,同时给出了最佳公平分类器的相关表达式,该方法基于数据驱动的程序并且有理论保证。该方法在合成和真实数据集上都很有效,在决策制定中具有预设不公平性水平的公平性保证(无需考虑分布),并竞争(即使更好)地完成二元和多类任务。
Sep, 2021
DAFair 是一种用于减轻语言模型中社会偏见的新方法,通过预定义的典型人口统计文本,并在微调过程中加入正则化项来纠正模型的表示中的偏见,从而在两个任务和两个模型上实证结果显示了我们方法的有效性。此外,即使在有限的人口统计注释数据下,我们的方法也优于常见的去偏方法。
Mar, 2024
通过同时考虑特征、损失和优化方面,我们提出了第一个在深度假像检测中解决公平性泛化问题的方法,采用解缠学习提取人口统计和领域无关的伪造特征,并将它们融合在一起,以在交叉领域的深度假像检测中鼓励公平学习。在知名深度假像数据集上进行的广泛实验证明了我们方法在保持公平性方面的有效性,超过了现有技术水平。