通过筛选最公正的实例并扩展概率阈值的置信区间,结合共同教学范式以提供更可靠的选择,有效地减轻偏见标签带来的不良影响,我们的方法证明在促进公平和减少机器学习模型中标签偏见方面的有效性。
Dec, 2023
本研究介绍了一种结合人类主观标签和数学定义的客观标注来减轻面部分类器中的偏见的学习方法,并通过集成学习方法进行了实验验证。
Apr, 2022
提出了 FAIRLABEL 算法,用于检测和修正标签中的偏见,以减少群体间的不平等影响,同时保持高预测准确性。在合成数据集上验证 FAIRLABEL 时,显示标签修正正确率为 86.7%,而基准模型为 71.9%。在 UCI Adult、German Credit Risk 和 Compas 数据集上应用 FAIRLABEL,显示不平等影响比增加了高达 54.2%。
Nov, 2023
本文提出一种使用 “超集学习” 框架来处理标签噪声的方法,将目标信息进行模糊化,并添加额外的备选标签,以协同改善学习器的泛化性能。实验结果表明该方法在合成和真实数据上都能有效检测和纠正错误的训练标签。
May, 2023
本论文探讨选择性标签下算法辅助决策学习的问题,介绍为什么标准方法无法有效处理选择性标签的普遍选择偏误问题,提出了一种数据增强方法,既可以利用专家一致性减轻选择性标签导致的部分盲目性,也可以经验验证学习是否会导致易受系统性歧视的不可靠模型。
Jul, 2018
通过实证方法,我们评估了六种标签噪音修正方法在多个公正度度量标准上的表现,结果表明混合标签噪音修正方法在预测性能和公正度之间取得了最佳平衡,而基于聚类的修正方法可以最大程度地减少歧视但降低了预测性能。
Jun, 2023
本文提出了一种数学公式来证明数据集中的偏见对分类器的影响,通过无需改变标签来重新计算数据点的值,从而得到一个无偏分类器,这种方法可以在各种机器学习算法中使用,并实现了公平分类的目标。
Jan, 2019
本文研究当使用敏感信息来训练机器学习系统时如何保证公平性,提出了一种有效的技术 —— 基于转移学习的去耦合方法,并且可适用于多个公平标准下的任务,但是需要在应用设计者规定的联合损失函数下权衡公平性和准确性。
Jul, 2017
由于文本分类器开发中的偏见关联限制了公平性和准确性,因此我们调查了最近介绍的去偏置方法,作用于检测有毒语言的文本分类数据集和模型,重点关注词汇(例如骂人话、侮辱性言论、身份称谓)和方言标记(特别是非裔美国英语)。我们的全面实验表明,现有的方法在防止当前毒性检测器中出现有偏见的行为方面存在局限性。然后,我们提出了一种自动的方言感知数据校正方法作为概念验证。尽管采用了合成标签,但该方法减少了方言与毒性之间的关联。总的来说,我们的发现表明,在训练有毒性偏见性数据的模型时去偏置并不如简单重标记数据以消除现有偏见有效。
Jan, 2021
本研究探讨不同训练策略如何利用少量人工注释标签和大量但带有偏见的合成标签(针对身份群体)来预测在线评论的毒性,并评估了这些方法的准确性和公正性。虽然最初使用所有数据进行训练并在干净数据上微调能够产生具有最高 AUC 的模型,但同时我们发现没有一种策略在所有公正度量标准上表现最佳。
Oct, 2021