监督学习中的公正性: 信息论方法
本文提出了一个多功能的混合整数优化框架,用于学习最优和公平的决策树和其变体,避免不公平对待和/或不公平影响。计算结果表明,这个框架提高了领域内的技术水平,能以更低的成本提高准确性,从而产生非歧视性的决策。
Mar, 2019
本文利用在线随机决策过程实现近似群体公平,其中公平度量考虑到等于几率。通过经典的专家学习方案,通过一个有限的分类器集的基础上运行该算法的单个实例,为标签类和敏感群体运行单独的算法实例,通过一些理论结果表明,在不损失太多遗憾的情况下,可以实现近似的等几率结构。
Aug, 2019
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本篇文章提出了一种基于信息论度量和Shapley值函数的公平特征选择框架,以考虑特征与决策结果之间的相关性,量化了不同特征对决策结果准确性与公平性的影响,最终设计了一个特征的公平效用分数,对真实和合成数据进行了性能评估。
Jun, 2021
本文提出了一种搜索疑似算法不公平因素的算法,不同于以往对于完整信息的处理,这个算法考虑了预测时的部分观测条件以及机器学习模型可能出现的疑似偏见,并引入了概率电路的概念,同时提供了一种基于抽样的方法来更有效地挖掘疑似偏见。
Dec, 2022
本研究提出一种旨在平衡公平性和实用性的机器学习分类任务的独特解决方案,它利用贝叶斯学习估计样本预测的不确定性,并通过不确定性量化来定义新型的公平性-效用目标,从而实现同时优化公平性和实用性。实证研究发现,具有低分类不确定性的样本比高不确定性的样本更准确、更公平。实验结果表明,该方法在公平性和实用性平衡方面表现优异,并有望在机器学习中实现最佳公平性和实用性。
Apr, 2023
通过对统计平等和预测平等的关系进行原因分解,我们得出了一种新的公式,使得两种平等概念不互斥,而是互补的,并通过业务必要性的理念涵盖了公平性概念的一系列光谱,最终我们通过真实世界的案例证明了我们发现的重要性。
Jun, 2023
The paper proposes a pre-processing method called BaBE (Bayesian Bias Elimination) which combines Bayes inference and the Expectation-Maximization method to estimate the most likely value of the latent variable E, overcoming the correlation between the sensitive attribute S and the legitimate attribute E, thus achieving fairness and high accuracy.
Jul, 2023
利用神经网络以简单的随机采样器对敏感属性进行学习的公平惩罚措施,旨在实现非歧视性监督学习。与现有的许多方法相比,该惩罚能够处理多种格式的敏感属性,因此在实践中更具广泛适用性。实证证据表明,我们的框架在流行的基准数据集上的效用和公平性度量优于竞争方法。我们还在理论上表征了所提出的神经网络惩罚风险最小化问题的估计误差和效用损失。
Nov, 2023