关键词fairness-aware machine learning
搜索结果 - 8
- 以简单随机抽样器进行敏感属性的公平监督学习
利用神经网络以简单的随机采样器对敏感属性进行学习的公平惩罚措施,旨在实现非歧视性监督学习。与现有的许多方法相比,该惩罚能够处理多种格式的敏感属性,因此在实践中更具广泛适用性。实证证据表明,我们的框架在流行的基准数据集上的效用和公平性度量优于 - 从观测数据中学习反事实公平性
本文提出了一种新的框架 CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了 CLAIRE 在反事实公平性和预测性能方面的优越性。
- 公平性不确定性量化:您有多确定该模型是公平的?
本文提出了一种在线 multiplier bootstrap 方法,用于构建置信区间,以评估通过在线 SGD 类型算法训练具有 Disparate Impact 和 Disparate Mistreatment 意识的线性二元分类器的公平性 - 在学业表现预测中以等同几率为公平度量指标
本文旨在研究学术绩效预测系统中的公平性概念,发现基于学术绩效预测系统的 WYSIWYG 世界观和人群潜在的长期改善,平等赔率是最适合的公平概念。
- 跨域公平分类的联合对抗学习
本文探讨了在缺少敏感属性的情况下,利用类似领域中的辅助信息来提高目标领域中的公正分类的可行性, 并提出了一种既能学习到目标领域中的公正分类器,又能估计敏感属性的新框架,实验结果表明其有效性。
- AAAI具备公平性的多敏感特征数据朴素贝叶斯分类器
本文研究了如何通过改进 two-naive-Bayes(2NB)算法,进而将之推广到 N-naive-Bayes(NNB)算法,从而得出一种基于多个敏感特征的差异公平性约束条件,并对其进行了实证研究。
- 终极目标是否正当化手段?公平感知机器学习的道德正当化
论文讨论公正机器学习算法的义务,对比不同的公正度量标准及其在道德层面的合理性,分析 Hardt 等人提出的公正机器学习算法引起的道德问题。作者建议需要从综合角度评价公正机器学习算法的策略和效果。
- 基于奇偶校验的累积公平感知 Boosting
该研究提出了 AdaFair 算法,它可以有效地处理数据驱动的人工智能系统中的歧视问题,在平衡不足的情况下实现了性别、种族等保护属性的公平,同时保持预测性能。