通过全局探索增强模型可解释性的局部归因
本文提出了一种基于放松的功能依赖概念的特征选择/归因的正式化方法,通过在合成数据集上计算基本真实的归因,评估了许多最先进的归因方法,并展示了即使在优化时,某些归因方法也无法验证所提出的属性并提供错误的解决方案。
Apr, 2021
本文提供了两种流行的解释方法(Occlusion 和 Shapley 值)的模型无关实现,以无限制的交互方式实现不同的属性。利用已纠正的特征归属来生成额外的本地数据,通过在模拟和真实数据实验中展示我们提出的方法如何通过纠正的解释显著提高模型的性能。添加交互式解释以增加活动学习效率,显著优于现有的解释性交互策略。此外,本文探讨了领域专家如何提供足够正确的特征归属来改进模型。
Jun, 2023
我们提出了一种新的评估方法,用于基准测试最先进的可解释AI归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于XAI方法输出的更深入的洞察。
Aug, 2023
通过重新建模图像归因问题,该论文提出了一种基于子模集选择问题的图像归因算法,旨在利用更少的区域来增强模型的可解释性,并通过构建新颖的子模函数来发现更准确的细粒度解释区域,在子区域的选择上引入了信心,有效性,一致性和协作得分四个不同的约束来评估各个子集的重要性。与现有方法相比,在两个人脸数据集(Celeb-A和VGG-Face2)和一个细粒度数据集(CUB-200-2011)上的大量实验证明了所提出方法的优越性。
Feb, 2024
解释性人工智能的研究领域试图开发提供复杂机器学习方法如何进行预测的见解的方法。在这项工作中,我们探讨了高斯过程回归(GPR)背景下的特征归因问题,并在现有文献的基础上以原则性的方法定义了特征归因。我们展示了尽管GPR是一种高度灵活的非参数方法,但我们可以导出解释性的闭式表达式用于特征归因。使用Integrated Gradients作为归因方法时,我们表明GPR模型的归因也符合高斯过程分布,从而量化了由于模型的不确定性而产生的归因的不确定性。我们通过理论和实验证明了这种方法的多功能性和稳健性。我们还表明,在适用的情况下,GPR归因的精确表达式比目前在实践中使用的近似方法更准确且计算成本更低。
Mar, 2024
本文分析了Shapley值归因的解释误差,将解释误差分解为观察偏差和结构偏差两个组成部分,并且证明它们之间存在权衡关系。基于此误差分析框架,提出了过多信息和过少信息解释这两个新概念,并对现有的Shapley值归因方法进行了可能的过多信息和过少信息的理论分析。
Apr, 2024
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的T-Explainer成为了一种有效的特征归因方法。
Apr, 2024
我们提出了一个遵循可信度准则的基于后门攻击的可解释人工智能基准(BackX),并且通过使用我们的基准对现有方法进行了综合比较和评估,同时为防御后门攻击提供了指导。
May, 2024
使用计算复杂性理论评估机器学习模型的局部和全局解释性,证明了局部和全局解释之间的对偶性以及某些全局解释形式的独特性,并比较了线性模型、决策树和神经网络在计算解释复杂度方面的差异。
Jun, 2024