确保公平的金融决策:利用反事实公平和深度学习解决偏见
本文提出了一个利用因果推断工具来建立公正性模型的框架,以避免机器学习在保险、贷款、雇佣和预测执法等领域的不公正决策,避免造成基于不公正数据的歧视性做法,以法学院成功的公平预测为实际问题进行了实证研究。
Mar, 2017
介绍了一种新的开源Python工具包- AI Fairness 360 (AIF360),用于支持决策性应用程序的算法公平性,该工具包包括公平度量标准、算法对数据集和模型执行偏差检测和修复以及参考指南和教程。
Oct, 2018
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着“多维面”等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
本文提出了两个算法,通过因果模型和反事实决策来实现公平的机器学习预测器,以实现提供平等机会和重修历史劣势。在包括招生、收入、信用和再犯等领域的数据集上进行评估与权衡,结果表明这些预测器在理论上达到了预测性能的最优,同时满足公平性。
May, 2019
本研究探讨公平机器学习在征信评分中的应用,介绍了统计公平性准则、机器学习模型中公平性目标的算法选择,使用实际数据实证比较了不同的公平性处理器,发现多种公平性准则可以同时得到满足,提出分离度作为评估公平性的准则,证明了公平性处理器能在利润与公平性中找到一个良好的折中点,可以以较低的成本将算法歧视降低到合理的水平。
Mar, 2021
本研究探讨了12种顶级的偏差缓解方法,讨论其性能,基于5种不同的公平度量标准、实现的准确性和金融机构的潜在利润。我们的研究结果表明,在保留准确性和利润的前提下实现公平存在困难,同时突出了一些最佳和最差的表现,并有助于实验机器学习和其工业应用之间的联系。
Sep, 2022
本文旨在通过实现一个两步训练过程来识别和减轻个人不公平, 并利用最近在此领域发表的一些技术,特别是在信贷审批用例中适用的技术。我们还调查了实现个人公平性的技术在实现团体公平性方面的有效程度以及提出了第二度量标准来确定模型如何公平地处理类似的个体,最后呈现了一些与个人不公平减轻技术相关的实验结果。
Nov, 2022
介绍了一种新的数据预处理算法 Orthogonal to Bias (OB),旨在消除连续敏感变量的影响,从而实现机器学习应用中的反事实公平性,并通过模拟和实际数据集的实证评估证明该方法能够在不损害准确性的情况下实现更加公平的结果。
Mar, 2024
本研究关注高风险领域(如医疗和招聘)中机器学习决策的公平性问题,特别是反事实公平(CF)的概念。作者提出了一种简单而有效的方法,能够在不损失最佳性的情况下,将最佳但潜在不公平的预测转化为公平的预测,量化了CF与预测性能之间的内在权衡,并通过实验验证了其有效性。
Sep, 2024
本文针对信用评分中的机器学习应用,解决了可能存在的偏见、歧视与不透明性等问题。通过非系统性的文献综述,提出了公平性、拒绝推断与可解释性等最佳实践,引导金融机构在应用机器学习时,确保道德与责任借贷的实现。研究强调了透明性的重要性,为理解和改善个人信用评分提供了方法和技巧。
Sep, 2024