- 树形推理:使用层次结构解释卷积神经网络
使用层次分割技术构建模型解释框架,提供可信和可解释的卷积神经网络 (CNN) 解释,旨在增强 xAI 的可解释性和理解神经网络的决策过程。
- 验证关系解释:一种概率方法
通过生成对称近似的对抗性样本,我们开发了一种方法来评估 GNNExplainer 生成的解释中的不确定性,通过学习一个因子图模型来量化解释的不确定性,我们的结果表明我们的方法可以可靠地估计解释中指定关系的不确定性。
- 通过学习有说服力的解释优化人工智能与人类的合作
提出了一种协作系统,其中人类最终做出决策,同时给予模型以最佳机会进行解释并与其辩论,从而解决了机器学习模型在复杂决策中出现难以检测故障模式且能够无监督采取行动的挑战。通过使用协作方法,我们可以确保安全性,提高性能,并解决透明度和问责制方面的 - IJCAI多模态仇恨表情包内在含义的解读
该研究提出 Hateful meme with Reasons Dataset (HatReD),并定义一项新的条件生成任务,旨在自动生成来解释仇恨性表情包,同时建立了最先进的预训练语言模型在该任务上的基线性能,以此缩小可见和不可见领域内表 - 矫正分布偏移解释中的群体不规则性
提出基于最差单元优化的解释方法 Group-aware Shift Explanations (GSE),在一系列的表格、语言、以及图像模型中不仅能够维持组群结构,诸如人口统计和分层子人口,同时增强了结果解释的可行性和鲁棒性。
- 规模上的可解释性:在 Alpaca 中识别因果机制
本文介绍了基于因果抽象的分布式对齐搜索方法(Distributed Alignment Search,DAS),通过替换搜索过程并训练参数,能够高效地在大型语言模型中搜索可解释的因果结构。在应用 DAS 于 Alpaca 模型时,我们发现它 - ICML基于动态变分轨迹模型的超声心动图可解释异常检测
提出一种新型异常检测方法,利用心脏周期的周期性来学习三种变量潜在轨迹模型(TVAE),并在我们的新型数据集中进行学习和训练,可靠地识别严重的先天性心脏缺陷,同时在检测肺动脉高压和右心室扩张时表现出比基于标准变分自动编码器的最大后验概率(MA - ICML图神经网络生成因果解释
Gem 是一种通用方法,为各种图形学习任务上的任何 GNN 提供可解释性解释,通过因果学习任务解决了 GNN 决策的解释问题,并显示其相对于最先进的替代方案具有更好的解释准确性增加了高达 30%,并将解释过程加速了高达 110 倍。
- WSDM推荐系统中的供应商端可解释性与反事实解释
本研究提出一种名为 PRINCE 的可解释机制,以在提高终端用户信任的同时提供最小化行动的解释,实现了可读、可操作、简明的解释。该机制能够在两个真实世界数据集上提供比直观基线更紧凑的解释,并且众包用户研究的洞见表明了基于行动的解释的可行性。
- AAAI多维度文件目标变量解释
本文提出了将 Multi-Target Masker (MTM) 应用于多目标预测的问题,在两个数据集的实验中,MTM 显示出产生更精确、更连贯的预测解释的能力,并且首次同时实现了所有目标变量的最高 F1 分数。
- 当特征具有依赖性时解释单个预测:更准确的 Shapley 值逼近
本文介绍了使用 Shapley 值框架及其高维的计算有效近似,使复杂机器学习模型在解释各远行预测时更具可解释性,同时提出了处理相关特征的方法,增强了解释精度。
- GNNExplainer: 生成图神经网络解释
该研究提出了 GNNExplainer 方法,能够为任何基于 GNN 的模型和任何基于图的机器学习任务提供可解释性的预测解释,该方法能够识别关键的子图结构和节点特征,并能够生成一致而简洁的解释。
- ICML大型图像数据集中的可解释性发现
该研究提出了一种新方法,将新颖性检测与 CNN 图像特征相结合,用于在大型数据集中快速发现新的,有趣的,不同寻常或异常的图像,并提供可解释的解释。
- 利用视觉解释向人类学习者授予类别
该研究旨在提供计算机辅助教学的解释方式,建立一个能够为学习者提供理解性反馈的框架,指导学习者更好地理解相关概念和知识点。研究表明,相较于其他传统方法,该框架能够显著提高学习者在复杂分类任务中的表现。