算法公平性的因果特征选择
在普遍采用机器学习的医疗领域,自动化的社会偏见可能会加剧健康差距,我们探索了从特征选择的角度来解决算法公平性。传统的特征选择方法忽视了不同子群体之间这些因素的差异,而我们的公平特征选择方法考虑了所有人口群体的平等重要性。我们在三个公开可用的医疗数据集上测试了我们的方法,在这三个数据集上,我们观察到在公平性度量指标上的改善,同时平衡准确率仅有轻微下降。我们的方法解决了公平机器学习背景下的分配和程序公正性问题。
Mar, 2024
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本论文使用因果分析作为分析机器学习中公平性参数和其他重要指标的权衡的原则方法,并在广泛使用的公平性改进技术上进行了全面的实证研究,提供了可操作的建议,以及在选择最佳公平性改进方法方面提供了多种可能性。
May, 2023
本文提出了一种基于 Hilber-Schmidt 独立性准则的预处理步骤,用于自动识别敏感特征,以解决机器学习模型在高度影响社会的决策支持系统中不公平结果的问题。我们的实验结果证明了我们的假设,并表明文献中被认为是敏感的几个特征不一定产生不公平结果。
May, 2023
论文提出了一种基于两阶段最小二乘法的公平机器学习算法,能够有效处理数据中敏感属性与非敏感属性相关的不公平问题, 其独特之处在于该算法针对回归模型的不公平问题也能做出有效处理,并且能够解决数字敏感属性的问题,经实验验证表现卓越。
Oct, 2017
若以相等的人受到相同待遇,不相等的人受到不同待遇定义决策为公平,采用此定义,设计机器学习模型以减少自动决策系统中的不公平必须引入保护属性时进行因果思考。根据近期提出的建议,我们将个体定义为在一个虚构的、规范化的期望(FiND)世界中相等,该世界中保护属性对目标没有(直接或间接)因果影响。我们提出了保持排名的干预分布来定义这个 FiND 世界的估计量,并提出了一种估计方法。对于该方法和得到的模型,我们提出了评估标准,并通过模拟和实证数据进行了验证。通过此方法,我们展示了我们的调整方法能够有效识别出最受歧视的个体,并减少了不公平。
Jul, 2023
研究如何通过包含公平性在目标函数中来解决机器学习中涉及敏感特征的不公平性问题。提出了基于新的公平分类框架的新型公平回归和降维方法,并通过使用 Hilbert Schmidt 独立性准则作为公平项,实现了线性和非线性问题的评估。
Oct, 2017
通过对模型的前后公平性进行评估,研究发现,在数据分布和训练数据规模发生变化时,数据和模型公平性指标之间存在线性关系。这表明,在训练之前对公平性进行测试可以尽早发现有偏见的数据收集过程,检测生产系统中的数据漂移,并减少全面训练周期的执行,从而减少开发时间和成本。
Jan, 2024