分解因果解释以进行实质性决策
我们提出了一种基于机器学习的回溯算法,用于提供决策结果不理想的人可以采取的可操作的一系列改变,以改善他们的结果。我们的算法可适用于各个不同 iable 的基于机器学习的决策系统,并填补了关于公平性的现有文献的不足之处。
Jul, 2019
通过算法补偿实施的反事实推演已成为使人工智能系统具有可解释性的强大工具,本文提出了一种名为 LocalFACE 的模型不可知技术,通过局部获取的信息在每个算法补偿步骤中构建可行且可操作的反事实解释。
Sep, 2023
通过两种概率方法选取最优行动以在有限的因果知识下实现补救,以解决缺乏真实结构因果模型的限制,并在不完美的因果知识下提供比非概率基线更可靠的建议。
Jun, 2020
现有关于反事实解释和算法回应的研究主要集中在静态环境中的个体上,但对于处理数据和模型漂移等动态环境的能力仍然是一个未被充分探索的研究挑战。在个体实施回应的实际情况如何影响其他个体方面也缺乏研究。通过模拟实验,本文发现现有的算法回应方法的应用可能会受到域和模型漂移的影响,但同时提出了几种缓解这些问题的策略。同时,我们提出了一个快速且开源的模拟框架,用于研究回应动态。
Aug, 2023
该论文提出了一种将偏好学习整合到追索生成问题中的两步方法,通过设计问答框架来逐步细化追索主体的马氏矩阵代价的置信集,然后利用基于梯度和基于图的代价自适应追索方法来生成合法且考虑到整个代价矩阵的高效追索,数值评估结果表明该方法在提供高效追索建议方面优于现有基准。
Feb, 2024
本研究提出了有意义的算法追溯 (MAR) 方法,该方法仅推荐同时改善预测和目标的操作,从而解决了原有算法追溯方法的问题,并介绍了一种称为有效算法追溯(EAR)的方法,它可以假定采取操作可以影响模型目标的所有原因,从而生成有意义的算法追溯解释。
Jul, 2021
本研究从补救行动的角度研究算法公正性,提出两个新的公正性准则,明确考虑特征之间的因果关系,从而捕捉在物理世界中执行的补救行动的下游效应。我们探讨了我们的标准与其他标准,如反事实公正性的关系,并且证明了补救公正性与预测公正性互补。最后,我们讨论了是否可以通过社会干预来更好地解决数据生成过程中的公正性违规问题,而不是限制分类器。
Oct, 2020