结构化数据的模型无关对比解释
提出了一种新的框架 Model-Agnostic Counterfactual Explanation (MACE),通过采用一种新设计的流水线来有效处理大量特征值上的非可分机器学习模型,其中包括使用基于 RL 的方法来找到良好的对策例子和梯度下降方法来改进相似性。公共数据集上的实验证实了该方法的有效性,具有更好的准确性、稀疏性和相似性。
May, 2022
通过黑盒 / 查询访问,我们提出了两种对比解释方法:一种是效率较高但需要多次模型调用的近视算法,另一种是主要算法贡献的预算算法。我们展示了这些方法在不同自然语言任务中的有效性,例如开放文本生成、自动红队战术和解释对话衰退。
Jun, 2024
本论文提出了一种基于决策树、熵、对抗性生成模型等方法的可解释性算法 CEnt,能够生成种类多样性的反事实证明,不但在可行性、达成性等方面较现有方法表现更好,并且在 MNIST、Fashion MNIST 等数据集上进一步推广并成功用于文本分类器缺陷检测。
Jan, 2023
本文提出了一种基于 Distribution Compliant Explanation(DCE)的 Contrastive GNN Explanation(CoGE)技术,该技术适用于 Graph Neural Networks,并且可以提供更精确的模型解释。
Oct, 2020
对四个英文文本分类数据集进行分析,通过三种不同规模的模型以及三种后期解释性方法,验证了模型解释和人类解释在对比性和非对比性设置下的一致性。
Oct, 2023
提出了一种名为 GRACE 的新的解释深度学习模型在表格数据方面的预测的方法,它基于干预与对比这两个思想,并生成易于理解的文本解释,相较于竞争基线方式,其生成的解释直观易懂且提高了用户决策准确性达 60%。
Nov, 2019
提出使用 CEN(contextual explanation networks)架构进行预测,生成中间简化的概率模型作为解释,为每个预测生成有效的、实例特定的解释,并可用于决策支持。CEN 架构不仅和现有的最先进方法相竞争,且在决策支持方面提供了有价值的额外细节。
May, 2017