本文提出用基于概率模型的渐变计算来解决机器学习模型中反事实样例解释的问题,并通过实验证据证明该方法的优越性。
May, 2022
该研究提出一种基于因果关系的方法来解释黑盒决策系统,并使用概率对比反事实证明其有效性,能够为受算法决策影响的个体提供可行的补救措施。该方法不需要了解算法内部结构,能够计算全局、局部和情境层面的有效解释和补救措施。经实验证明,该方法较 XAI 的其他流行算法效果更好。
Mar, 2021
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023
使用多目标优化模型,通过生成逆因模型生成可信的对抗实例,以提高深度学习模型的透明度,检测偏见和数据不当的形式。
本文综述了可解释人工智能(XAI)领域中的对抗事实例,这些例子通过指示对实例进行的修改来解释训练决策模型的预测,以改变其相关预测。同时,本文探讨了可解释人工智能中多元对抗事实例的概念定义,讨论了它们的基本原理以及它们依赖的用户需求的假设,并提出了这方面的进一步研究挑战。
May, 2023
本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
本文综述分类了反事实解释的研究,包括如何评估和设计反事实解释算法,探讨了反事实解释在机器学习领域中的研究方向和发现的不足之处。
Oct, 2020
通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
该研究提出了一种多目标反事实解释方法(MOC),将反事实搜索转化为多目标优化问题,通过对特征空间的多样性维护,返回一组不同权衡的反事实,并在实际案例中展示了 MOC 的有用性和与现有方法的对比。
Apr, 2020