本研究提出了基于多任务框架的公平性训练方法,通过对相关任务中的人口统计数据进行利用,减少目标任务中的偏差,即使在没有内部统计数据的情况下也可以提高公平性。
May, 2023
本文探讨了收集人口统计数据用于实现算法公平性所面临的风险和挑战,并呼吁在数据管理和系统性压抑等领域中解决这些问题。
Apr, 2022
我们提出 Adversarially Reweighted Learning (ARL) 来解决机器学习(ML)公平性研究中的现实问题:如何在不知道保护组成员身份的情况下训练 ML 模型以提高公平性,我们的结果显示,ARL 可以提高 Rawlsian Max-Min 公平性,在多个数据集中最坏情况下保护组的 AUC 得分优于现有的最先进方法。
Jun, 2020
本文研究通过个人隐私保护的方式,实现对受保护属性的学习,在使用中不产生歧视,同时在受保护属性只在数据子集中存在的情况下,实现公平预测模型的学习。
Feb, 2020
本研究提出一种新算法,可以识别和处理潜在的歧视因素,确保机器学习模型的公平性,从而提高模型性能,实现非歧视分类和回归任务。
本研究通过引入不确定性感知,对可能存在不确定性的人口敏感属性样本实施公平性要求,并提出一种建立更好的公平性 - 准确性权衡的属性分类器框架,实验证明该框架相对于传统方法在两个数据集上都取得显著的公平性 - 准确性权衡表现优势,并且超过了对真实敏感属性进行约束训练的模型。
Jul, 2023
通过降低训练过程中的 Hessian 矩阵的最大特征值,我们介绍了一种新颖的偏差缓解方法,从而在确保联邦学习参与者之间存在公平的损失景观的基础上实现了无需敏感属性信息的公平。此方法还通过基于错误率和损失景观曲率属性来促进参与模型的聚合,从而在人体中心化的联邦学习系统中实现公平。
Apr, 2024
研究俄罗斯人口数据的分类器的公平性问题,提出了使用 “特征丢弃” 来解决过程公平性,同时使用 “LIME 解释” 来评估分类器的公平性和决定敏感特征的消除,结果表明所有的模型都变得不再依赖于敏感特征,并表现出更好或没有影响的准确性。
Feb, 2022
在医学图像诊断中,公平性变得越来越重要。本文提出了一种方法,在测试阶段实现对敏感属性的公平预测,而无需在训练过程中使用此类信息,并通过增强模型特征和规范特征的纠缠关系来提高公平性和准确性。实验结果表明,在两个皮肤病数据集中,该方法能够提高分类的公平性。
Jan, 2024
研究通过敏感属性的少量依赖分配标签的公平监督学习算法在机器学习界引起了极大关注。本文分析了标准的基于 DP 的正则化方法对给定敏感属性的预测标签的条件分布的影响,并提出了一种基于敏感属性的分布鲁棒优化方法以改善对敏感属性边际分布的鲁棒性,数值实验结果支持了理论结果及所提出的方法的去偏效果。
Feb, 2024