机器引导人类监督:全球解释交互式学习
本文提出了一种使用两个输入示例及其对应的 GradCAM 模型解释作为示范解释来实现交互式机器学习的新方法,旨在减少 eXplanation Based Learning 中的用户交互和费用支出,该方法对医学图像分类任务产生了良好的效果。
Jul, 2023
GLocalX 是一种基于本地解释的模型无关的解释方法,通过汇总本地解释解释部分理解黑匣子模型,从而学习精确而简单的可解释模型,以替代黑匣子模型。实验证明,GLocalX 能够准确地模拟几种模型,其性能达到本机全局解决方案的最新水平,这为在带有高维数据的复杂领域中实现高准确性和可理解性的分类模型奠定了基础。
Jan, 2021
该研究旨在提供计算机辅助教学的解释方式,建立一个能够为学习者提供理解性反馈的框架,指导学习者更好地理解相关概念和知识点。研究表明,相较于其他传统方法,该框架能够显著提高学习者在复杂分类任务中的表现。
Feb, 2018
本文综述了指导解释学习(EGL)领域,一种通过在模型解释上添加正则化、监督或干预来引导 DNN 推理过程的技术,并讨论了 EGL 潜在的应用领域和方向,在计算机视觉和自然语言处理等领域提供了全面的比较研究。
Dec, 2022
GLGExplainer 是一种全局解释器,它能够生成作为图形概念逻辑公式的本地解释的任意布尔组合,从而提供准确和人类可解释的全局解释,这使得 GLGExplainer 成为有前途的用于学习 GNN 的诊断工具。
Oct, 2022
该研究探讨了解释在互动式机器学习系统中的作用,以帮助领域专家检测和解决潜在的数据问题,从而优化模型的效果;结果发现全局模型中心的解释不足以指导用户在数据配置过程中,而数据中心的解释可以提高对系统变化的理解,两种解释类型的混合体效果最佳。
Feb, 2024
本文研究如何将人类知识融入深度加强学习中,并提出 EXPAND 方法,在五项任务中展示出用于处理人类知识的可行性,该方法显着优于仅利用评估反馈的基线方法和来自监督学习的人类解释的方法。
Jun, 2020
本研究提出了一种名为 GALE 的机器学习模型,旨在提供有关模型全局决策过程的洞见。结果表明,聚合方法的选择很重要,我们的提出的聚合方法能更好地代表特征如何影响模型的预测,并通过识别区分性特征提供全局洞见。
Jul, 2019
本文利用元学习技术,通过优化解释,使得学生模型更有效地学习模拟原始模型,探讨了提供解释的明确目标及其实现方法,在三个自然语言处理和计算机视觉任务中,通过人类注释和用户研究,发现我们提取的解释与人类解释更加贴近。
Apr, 2022
本文提出了一种适用于 GNN 节点和图分类的自动套路解释方法 GCExplainer,通过将人放入循环中,实现了对 GNN 的全局解释,实验表明该方法较 GNNExplainer 具有更高质量的概念表示和提供了更深刻的数据集和模型分析。
Jul, 2021