Nov, 2019
计算反事实解释的方法 —— 一项调查研究
On the computation of counterfactual explanations -- A survey
André Artelt, Barbara Hammer
TL;DR机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Abstract
Due to the increasing use of machine learning in practice it becomes more and
more important to be able to explain the prediction and behavior of machine
learning models. An instance of explanations are
发现论文,激发创造
通过不同的反事实解释解释机器学习分类器
本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019
通过数学优化在基于得分的分类中生成集体反事实解释
利用数学优化模型,通过集体反事实解释为给定组内各实例提供一个反事实解释,以使扰动实例的总成本在一定约束下最小化,从而检测对整个数据集都至关重要的特征,验证了该方法的实用性。
Oct, 2023
透过对抗样本镜头探索反事实解释:理论和实证分析
通过对对抗样本技术和因果解释方法之间的形式化相似性的系统分析,我们提出了关于机器学习模型与因果解释算法之间的理论和经验相似性的研究,这引发了现有因果解释算法设计和开发的基本问题。
Jun, 2021
针对反事实解释的条件生成模型
该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。
Jan, 2021
基于 Tree 集成的灵活可优化反事实解释解释(FOCUS)
为了解决机器学习模型的可解释性问题,本研究提出了一种基于梯度优化和概率模型逼近的反事实解释方法,可以适用于不可微模型如树模型,并且该方法得出的反事实案例要优于其他针对树模型的反事实方法。
Nov, 2019