- 利用描述逻辑进行异构图神经网络的全局解释
利用类描述逻辑中的类表达式,我们提供了异构图的解释方法,通过 GNN 和两种不同的评分函数,构建多个图并聚合预测得分,或者通过保真度评分函数将 GNN 的预测结果与类表达式的预测结果进行比较,而非使用子图解释。
- 局部无关视频解释:基于移除的解释在视频中的适用性研究
本文提出了一个针对视频领域的统一框架,旨在在维持高学习性能的同时,通过融合时序信息和实现局部解释,扩展针对计算机视觉数据的细粒度解释框架,并将六种现有的解释技术应用于视频数据,进行了评估和比较研究。研究结果表明,3D RISE、3D LIM - 回归问题的校准解释
本论文介绍了一个可解释的人工智能(Explainable Artificial Intelligence)方法,名为 Calibrated Explanations(CE),旨在支持标准回归和概率回归,提供快速、可靠、稳定和强健的解释。CE - 基于归因和反事实的时间序列分类视觉解释
本文提出了一个可视化分析工作流程,以支持全局和局部解释的无缝转换,重点是基于时间序列分类的属性和反事实分析,通过采用本地 XAI 技术(归因),将其应用于传统数据集(图像,文本)来分析时间序列分类,进而生成全局概览。
- 基于线性代数的可解释人工智能分类
该论文提出了一种基于线性代数的分类法,用于提供一个数学方法来区分和比较不同的可解释人工智能技术所产生的解释,特别是针对数据集属于 R^n 的情况下的局部解释。
- EMNLP将逻辑解释网络扩展到文本分类
该研究提出了一种名为 LENp 的模型,通过扰动输入单词来改进文本分类中的本地解释,其提供的逻辑解释在灵敏度和忠实度方面比 LIME 更好,并且在人员调查中被证明逻辑解释比 LIME 提供的特征评分更有用和用户友好。
- 将政策摘要与奖励分解相结合,解释强化学习代理
本研究探讨将局部和全局解释方法相结合,通过激励分解和 HIGHLIGHTS 两种解释方式,帮助用户理解强化学习算法在决策制定时行为的策略,并通过两个用户研究证明两种方法的显著优势。
- 多类模型解释的加法逐实例方法
本论文提出了一种使用解释模型同时针对多个目标类别进行本地解释的框架,该模型具有更高的解释性和更紧凑的解释,通过广泛的实验验证了该模型具有选择稳定和重要特征的能力。
- 使用动态线性投影探索非线性模型的局部解释
本文介绍了交互式线性插值方法及其在分类(企鹅物种,巧克力类型)和数量(足球薪资,房价)输出方面的应用,并试图通过提供局部解释来解释非线性模型的预测性能和线性特征的重要性。
- 特征重要性和反事实解释的鲁棒性调查
研究了金融领域中两类常用的局部解释方法的健壮性,给出了健壮性分析的分类方法和结果,并探讨了如何扩展分析方法以确定可靠的解释方法。
- 基于状态转移模型的基于特征的可解释强化学习
提出了一种基于状态转移模型的强化学习局部可解释风险的方法,并通过实验证明了其有效性。
- IJCAI针对 NLP 模型的最优健壮性解释保证
本文提出了基于绑架式解释的机器学习方法,为自然语言处理中的神经网络模型计算局部解释。根据用户定义的代价函数,例如解释长度,优化词汇子集以满足两个主要特征。同时在嵌入空间中确保预测不变性,该方法通过内隐命中集和最大通用子集两种解法得出结果,并 - 通过预期结果解释代理行为:你认为会发生什么?
论文通过意图结果的概念,提出了一种新的加强学习解释形式,介绍了针对几种 Q 函数逼近的局部解释提取方法,并在多个环境和算法上进行了演示。
- 可靠的事后解释:解释性中的不确定性建模
本文提出了基于贝叶斯框架的黑盒模型解释方法,能够生成可靠的局部解释和其关联的不确定性,并且具有稳定性和高度一致性,可以快速地解决几个重要问题。通过实证研究,证明了该方法的有效性,并提高了解释的可靠性。
- 任何分类器的可衡量反事实本地解释
提出 CLEAR 方法来解释分类器预测结果,该方法可以生成最小改变以翻转预测结果的 w 反事实解释,并使用这些反事实解释来建立本地回归模型,从而提高模型的保真度。相比之下,流行的 LIME 方法没有测量自身的保真度或生成反事实解释。
- SIGIR黑匣子模型的全局局部解释
本研究提出了一种名为 GALE 的机器学习模型,旨在提供有关模型全局决策过程的洞见。结果表明,聚合方法的选择很重要,我们的提出的聚合方法能更好地代表特征如何影响模型的预测,并通过识别区分性特征提供全局洞见。
- 模型无关的监督式本地解释
MAPLE 是一种新颖的模型解释系统,使用局部线性建模技术和随机森林的双重解释,提供黑盒解释,并兼具高精度的预测模型和优越的局部解释能力。