减轻选民属性偏差以实现公正的意见聚合
研究通过敏感属性的少量依赖分配标签的公平监督学习算法在机器学习界引起了极大关注。本文分析了标准的基于 DP 的正则化方法对给定敏感属性的预测标签的条件分布的影响,并提出了一种基于敏感属性的分布鲁棒优化方法以改善对敏感属性边际分布的鲁棒性,数值实验结果支持了理论结果及所提出的方法的去偏效果。
Feb, 2024
本研究提出了一种新型的公平训练算法,该算法在尽可能保护个人隐私的情况下,避免了在机器学习模型中存在不良社会偏见的问题。实验结果显示,该算法可以有效降低社会偏见问题。
Jun, 2021
针对机器学习系统中偏见问题严重影响公平性的现状,我们提出了一种通过加权投票对预测结果进行校正的分析方法,同时基于该分析提出了一种基于主导和帕累托最优概念的修剪方法,能够在保证较小的准确性下提高公平性,实验证明该方法较为可行。
Jan, 2023
本文通过对两个人群标签数据集的系统研究发现,群体中存在个体提供有偏差的结果,采用简单的真值发现方法是次优的。同时,流行的真值发现算法并非万能,传统的公平性实现方法和纠正标签偏差的方法在这种情况下也无效。因此本文恳请设计新颖的具有偏差意识的真值发现算法来缓和这些问题。
Apr, 2023
通过使用语言特征和标签分布,我们介绍了一种无监督学习方法 CrowdOpinion,用于将类似项目汇集为更大的标签分布样本,其中涉及人工智能系统的公平性和人工注释者不一致问题的解决。
Jul, 2023
本文探讨了通过众包方式进行 NLP 数据集标注时,标注者之间的社会文化背景和个体经验差异可能导致的标签汇总引入了代表性偏差,并提高了数据集透明度和实用性的建议。
Oct, 2021
本研究拟定了 Fair-SMOTE 算法以解决自主决策中可能存在的偏见以及带来的问题,通过消除偏见标签、平衡内部分布使得基于敏感属性的示例在正负两类中均等地分布,从而提高了性能表现,并被证实是一种成功的偏差缓解方法。
May, 2021
本论文探讨了一种统计方法,利用专家的意见而无需真实的事实来推断每位专家的能力,并利用众人之智的原理测量每位专家的能力,进而提出一种完全无监督的朴素贝叶斯分类器的技术,并证明该技术在大类问题中是渐进最优的。同时,将该方法应用于大规模意见聚合、基于有限意见的决策制定。
Aug, 2023
通过研究多注释者模型的功效,我们的多任务方法将预测每个注释者的判断作为单独的子任务并共享任务的共同学习表示来解决注释者间的不一致性问题,并且表明这种方法比在训练之前聚合标签的方法在七个不同的二元分类任务中产生了相同或更好的性能。此外,在我们的方法中,我们证明我们可以估计不确定性,这些不确定性更好地与注释不一致性相关联,而这种模型不确定性特别适用于知道何时不作出预测的部署场景。
Oct, 2021