该研究关注人工智能决策系统的公平性问题,提出了一种在存在不确定性的情况下,对长期数据进行带公平性约束的监督学习的新方法,能有效减少基于数据的不公平决策。
Jan, 2023
研究机器学习算法如何实现公平性是机器学习中一个重要的领域。为了在构建机器学习系统时考虑公平性,这篇文章提出了一种新的公平性模型,即在具有审查制度的情况下进行个体公平性学习,探索了缺乏类标签前提条件的情况下如何对待相似的个体并减少歧视。本文在三个真实世界的数据集上验证了该方法的卓越表现,既能最小化歧视,又能保持预测性能。
Feb, 2023
研究公平机器学习时,为达到公平,可以通过在不同群体之间平衡度量指标,并研究历史偏见对数据集的影响,然而在训练有偏倚策略的数据时,可能会导致调整后的预测器在目标人群中并不公平,从而引起剩余不公平。 使用样本重新加权来估算和调整公平度量标准,以制定出更公平的机器学习算法。
Jun, 2018
本文使用机器学习系统支持决策制定在医疗保健中的问答涉及使用电子医疗记录中的观察性数据中隐含的偏见,进而进一步发展了组公平性标准,以在个体层面上扩展增益计数事实公正标准,探讨扩增的标准是否可以应用于使用观测性电子健康记录数据的病人长住和死亡的公平模型的开发。通过一个假设因果图的变分自动编码器来执行反事实推理,提供了一种在学习生成模型的背景下,在公平维护与预测性能下降之间权衡的方法。
Jul, 2019
本研究研究了在机器学习中关于公平性的概念,发现公平标准在不同的时间指标下可能会对个体产生不同的影响,同时量化误差也会影响其效果评估。
Mar, 2018
将公平性问题重新解释为一种基于超级公平性目标的模仿学习任务,以同时提高决策的准确性和公平性。
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
研究了一种在线分类问题,其中个体按固定但未知的分布一个接一个地到达,并必须被分类为积极或消极,算法只有在他们获得正分类时才会观察到个体的真实标签。该设置捕捉到许多分类问题,要求算法满足公平性约束.
Feb, 2019
在动态学习系统中,选择性标记会导致检查,即对一个或多个子组中分配的持续负面预测。我们正式化了检查,展示了它如何出现,并强调了检查检测的困难。我们考虑对检查的保障 - 救济和随机探索 - 两者都确保我们收集标签以观察到否则不会被观察到的点。结果技术允许来自被审查小组的示例进入培训数据并更正模型,我们的结果突显了检查的未测量危害,并证明了在一系列数据生成过程中缓解策略的有效性。
May, 2023
采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019