我们设计了一种单一的群体盲扫描映射,它使源数据中两个群体的特征分布对齐,从而实现了(人口)群体平等,而不需要在映射的计算和使用过程中提供个体样本的受保护属性的值,也不依赖受保护属性的可访问性或估计。
Oct, 2023
本文提出了一种公平去偏算法,通过调整预测模型的信念,尽可能使用敏感信息来进行预测,并在必要性最小化的同时承受一定的惩罚,以达到去偏和任务性能之间的理想平衡,并生成经过去偏的证明。
Oct, 2022
通过概率插值敏感特征并联合学习组条件缺失概率的变分自编码器,我们提出了公平感知分类模型,以解决隐私、法律问题和个体恐惧所导致的敏感特征全知要求的实际不可行性问题,我们的模型在图像和表格数据集上表现出较好的准确性和公平性平衡。
Feb, 2024
本文研究当使用敏感信息来训练机器学习系统时如何保证公平性,提出了一种有效的技术 —— 基于转移学习的去耦合方法,并且可适用于多个公平标准下的任务,但是需要在应用设计者规定的联合损失函数下权衡公平性和准确性。
Jul, 2017
本文研究语音识别中的不公平现象,通过划分发言者的群组并采取公平措施,比较利用地理和人口学信息与扩展的讲者嵌入技术的群组探测方法,发现在过采样和建模讲者群体成员方面均能缩小不同发言者群体间的差距并提高整体精确度。
Jul, 2022
本研究提出了一种新型的公平训练算法,该算法在尽可能保护个人隐私的情况下,避免了在机器学习模型中存在不良社会偏见的问题。实验结果显示,该算法可以有效降低社会偏见问题。
Jun, 2021
通过使用 CLIP 模型作为丰富的知识源来推断敏感信息,我们在图像和语言嵌入派生的相似度上进行样本聚类,并评估其与真实属性分布的一致性,然后通过重新采样和增强性能较差的聚类来训练目标模型,实验结果表明,该模型在多个基准偏见数据集上取得了明显的公平性改善,说明 CLIP 可以提取受语言触发的区分性敏感信息,用于推动模型公平性。
Mar, 2024
为了防止受保护人口受到歧视,减轻数据拥有者法律责任,本文尝试通过映射特征到公平表征空间,预防性地消除特征与敏感属性之间的相关性。实验结果表明,平滑表征分布可提供公平证书的泛化保证,同时不降低下游任务的准确性。
Jun, 2020
通过建模特征交互来检测相关属性以减轻偏见影响的无假设框架,大大减轻了机器学习模型中针对特定人群的歧视和不公平预测行为。
Jul, 2023
本文介绍了一种用于枚举词嵌入中偏差的算法。该算法利用几何模式在公共可用的嵌入中暴露了大量与敏感特征(如种族和性别)相关的冒犯性联想,以及所谓 “消除偏见” 的嵌入。该算法高度不受监督,可用于识别基于社会建构的许多形式的歧视,如种族歧视,这些歧视可能会因上下文而异。同时,我们还展示了如何移除名字可能无法消除潜在的代理偏差。
Dec, 2018