CXPlain: 在不确定性下进行模型解释的因果解释
本篇论文提出一种新颖的扩展方法,将因果关系显式编码进生成输入实例的数据以解释增加信任度和帮助用户评估解释质量的 XAI 方法,并通过实验表明该方法对于拟合黑匣子和解释稳定性均达到了比初始方法更优越的表现。
Dec, 2022
本文介绍了一种基于 Venn-Abers 的新型特征重要性解释方法 Calibrated Explanations,该方法能校准底层模型、生成特征重要性解释并对概率估计和特征重要性权重进行不确定性量化。此外,该方法对模型没有偏见、规则易于理解、可生成反事实解释和不确定性量化。
May, 2023
本论文介绍了一个可解释的人工智能(Explainable Artificial Intelligence)方法,名为 Calibrated Explanations(CE),旨在支持标准回归和概率回归,提供快速、可靠、稳定和强健的解释。CE 对于概率回归表现稳定且速度与 LIME 相当,且不依赖于模型,并具有易于理解的条件规则。
Aug, 2023
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
这篇论文介绍了如何将解释性方法扩展到具有不确定性意识的模型中,并演示了如何通过这些方法深入理解模型行为、特征对预测分布熵和真实标签对数似然的影响,以及不确定性来源对模型性能的影响。
Oct, 2023
提出了一种新方法,Counterfactual Latent Uncertainty Explanations(CLUE),它能够解释可微分概率模型(如贝叶斯神经网络)的不确定性估计,并能够使从业者更好地理解哪些输入模式会导致预测不确定性。
Jun, 2020
解释性和不确定性量化是可信赖人工智能的两个基石,本研究提出了一种简单可扩展的方案来解释预测的不确定性,通过使神经网络配备带有高斯输出分布的方差输出神经元来预测方差,然后利用现成的解释器解释模型的不确定性估计。
Dec, 2023
本研究旨在解决机器学习模型预测个体实例时特征贡献和整体特征重要性的估计问题,提出了一种基于假设理想实验的因果效应定义,并构建了基于因果效应的透明且有意义的本地和全局解释方法,其数据驱动估计和实验验证表明了该方法的有效性及实用性。
Jun, 2022