基于经验解释的高效解释方法
我们提出了一种选择性解释的特征归因方法,它检测出深度学习模型产生低质量解释的情况,并使用初始猜测解释技术改善这些解释,从而使实践者能够在提供初始猜测的解释之间进行选择,从而弥补了深度学习模型及其高质量对应物之间的差距。
May, 2024
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024
该研究通过一个众包实验,探讨解释机器学习模型的预测对人类是否具有帮助,并发现在给定特征系数的情况下,人们能够更有效地对线性词袋模型进行操纵,但解释对 BERT 型分类器并没有显著提高操纵能力,而通过伪造 BERT 模型的线性模型的对全局归属的解释则可以有效地操作 BERT 型模型。
Dec, 2021
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
该论文研究了深度学习中可解释人工智能的问题,特别关注了特征加性解释器在特征加性预测器中的适用性,并对特征交互进行评估,结果显示所有解释器在正确归因特征重要性方面最终失败。
Oct, 2023
解释性人工智能的研究领域试图开发提供复杂机器学习方法如何进行预测的见解的方法。在这项工作中,我们探讨了高斯过程回归(GPR)背景下的特征归因问题,并在现有文献的基础上以原则性的方法定义了特征归因。我们展示了尽管 GPR 是一种高度灵活的非参数方法,但我们可以导出解释性的闭式表达式用于特征归因。使用 Integrated Gradients 作为归因方法时,我们表明 GPR 模型的归因也符合高斯过程分布,从而量化了由于模型的不确定性而产生的归因的不确定性。我们通过理论和实验证明了这种方法的多功能性和稳健性。我们还表明,在适用的情况下,GPR 归因的精确表达式比目前在实践中使用的近似方法更准确且计算成本更低。
Mar, 2024
通过自编码器的包装方法,我们提出了一个包含多个可解释性对抗性分析器的集合,通过利用多样性导向的选择函数,将这些弱分析器的结果结合起来,从而实现了针对可解释性具有各种重要属性的强大方法。
Aug, 2023
本文介绍了在图神经网络中使用基于模拟的方法来量化加权图解释的固有有用性,发现相应的解释可以显著提高图神经网络的样本效率。作者认为这种有用性给出的是解释质量的一个维度,可被用作解释质量评估的新工具,特别是在图解释中。
May, 2023