本论文提出了一种采用对比学习的分类器去偏置化的方法,使得模型在保持主要任务性能的前提下,更加公平地代表输入的各种属性,并取得了在 NLP 和计算机视觉四个任务中的优异表现。
Sep, 2021
方言、自然语言处理方法、偏见语言、公平性和多任务学习的关键字;使用多任务学习可以提高公平性,并更可靠地检测偏见语言的特性。
Jun, 2024
该研究旨在解决自然语言处理中与作者人口统计信息相关的系统偏差问题,提出了一种基于数据集平衡和带保护属性的门控模型来实现公正性,证明了该方法在减少偏差方面优于其他技术。
为了提高语言模型的公正性,本文提出了多项定义并给出了新的测试和度量方式,旨在减少机器学习在文本生成过程中对性别、种族、语言宗教等社会构建的刻板印象所带来的负面影响。实证结果和人工评估表明,该方法能够在文本生成中减少偏见同时保留重要的上下文信息。
Jun, 2021
本文研究语音识别中的不公平现象,通过划分发言者的群组并采取公平措施,比较利用地理和人口学信息与扩展的讲者嵌入技术的群组探测方法,发现在过采样和建模讲者群体成员方面均能缩小不同发言者群体间的差距并提高整体精确度。
Jul, 2022
提出使用有条件的监督对比目标学习在文本分类中学习公平代表的方法,以平衡在现有基准线中任务表现和偏差缓解之间的权衡,并在两个文本数据集上进行实验,展示了该方法的有效性。
May, 2022
本文提出了一种基于边界的理论框架,并推导出了一种新的有监督对比损失(epsilon-SupInfoNCE)和一种有效的去偏差正则化损失(FairKL),这些方法可以用于从偏差数据中学习无偏模型,并在多个偏差数据集上实现了最先进的性能。
Nov, 2022
本文通过研究 NLP 模型中三个社会身份(种族、性别和宗教)之间的偏见相关性,提出在对偏见进行改善时需要综合考虑相关的偏见,而不是各自分开处理,以引导更多相关研究
本篇研究旨在提出一种新算法,用于学习公平的表征,以在分类环境下同时缓解不同人口统计特征子组之间的两种不平等概念。通过平衡误差率和条件对齐的表征等两个关键组件,它对确保跨组别的准确平等性和平衡假阳性和假阴性率发挥了作用。此外,我们还通过理论和两个实际实验证明,与现有的学习公平表征的算法相比,在平衡数据集上提出的算法可以在保持效用公平性的前提下得到更好的公平性。
Oct, 2019
使用 Data Debiasing with Datamodels (D3M) 方法,在不需要训练组注释或额外的超参数调整的情况下,通过隔离和移除导致模型在少数群体上失败的特定训练样本,可以高效地训练去偏置分类器。