本研究旨在正式和实证研究了解反事实解释的鲁棒性,以及在不同模型和不同类型扰动下的鲁棒性,并提出合理的反事实解释来改进鲁棒性和个体平等。
Mar, 2021
本研究提出了一种新颖的 “群组反事实” 算法,用于以集体方式解释类似实例的群体,通过控制的用户研究发现,相较于传统方式,此算法可以在一定程度上提高人们对人工智能系统的理解,可能对反事实方法和可解释性人工智能产生重要影响。
Mar, 2023
本文介绍了反事实解释的脆弱性并表明其容易被操纵,进一步提出了一个新颖的目标来训练明显公平的模型,在轻微扰动下反事实解释可以找到更低成本的救济措施。然而,我们在贷款和暴力犯罪预测数据集上的实验表明,这些模型可能会不公平地提供低成本的救济措施给特定的子群体。这些发现引起了对当前反事实解释技术可信度的担忧,并希望能启发对健壮性反事实解释的探索。
Jun, 2021
该研究提出了一种基于形式验证的算法,使用逻辑公式表示距离函数(目标)和预测模型(约束),解决满足性问题生成最接近的反事实解释,能够生成可行的多样化反事实解释来满足 100% 的覆盖率。
May, 2019
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
本文旨在在战略环境下寻找最优的政策和对策解释,包括 NP 难的问题,非降性和子模性,用标准贪心算法获得近似保证。最后,我们表明通过将拟阵约束加入问题的制定中,我们可以提高对策解释的最优集合的多样性,并激励整个人口谱上的个体自我改进。
Feb, 2020
通过报告多个反事实,可以提供一些有意义的鲁棒性保证,这篇论文提出了一种近似算法来选择最相关的解释,并在实验中证明了其在生成鲁棒性解释方面的改进。
Dec, 2023
本文针对可解释人工智能中的对策解释方法(Counterfactual explanations)中存在的异议问题(the disagreement problem)进行了大规模实证研究,发现不同算法生成的解释之间存在高度异议,从而呼吁更多关于算法决策透明度的讨论和实验研究。
Apr, 2023
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023