- 利用特征空间中的马氏距离和分布偏好提升反事实图像生成
本文介绍了一种在黑盒模型特征空间中计算特征重要性的新方法,并利用信息融合技术将特征反事实解释转化为图像反事实解释。实验结果表明,我们的方法生成的反事实解释在像素和特征空间上与原始图像非常相似,并且表现优于已有的基准模型,获得了令人印象深刻的 - ICML局部和全局救济的反事实元规则
T-CREx 是一种新颖的模型无关方法,用于本地和全局对策解释(CE),通过可读性规则的形式总结了个体和群体的退路选择,利用基于树的代理模型学习反事实规则,并利用表示其最佳性区域的 ' 元规则 ',为用户提供了模型行为的全局分析和多样的退路 - COIN: 计数事实上填充用于弱监督医学图像语义分割
通过解释性人工智能和反事实解释的框架,本研究开发了一种新型反事实修复方法(COIN),通过生成模型将分类标签从异常翻转到正常,实现对医学图像中病变的精确分割,不依赖于现有的分割掩模,证明其在肾脏肿瘤的语义分割方面优于现有的方法,并为稀缺标注 - 生成可解释的生存轨迹和数据
提出了一种基于特定结构的自动编码器生成生存轨迹和数据的新模型,解决了预测事件时间和生存函数、生成附加数据和生成原型时间依赖轨迹等三个任务,其鲁棒性和性能经通过合成和真实数据实验证明。
- PUPAE:直观且可操作的时间序列异常解释
近年来,在时间序列异常检测方面取得了显著进展,然而,在检测到异常后,我们能够解释它吗?本文介绍了一种领域无关的反事实解释技术,用于产生时间序列异常的直观且可行动的可视化和基于文本的解释。
- AAAI鲁棒的随机图生成器用于反事实解释
本研究介绍了一种新的稳健随机图生成器 RSGG-CE,能够从学习的潜在空间产生可行的反事实例子,并通过定序生成序列考虑来量化和质化地比较 RSGG-CE 与现有方法生成反事实候选者的性能,凸显其更高的能力。
- 通过对事实性分析进行先导性脑电动力观测分类
本研究引入并探索了一种创新的非生成方法用于脑电信号的分析,通过策略性地交换来自时频分析的补丁,详细研究这种方法在分类结果中引入的变化和细微差别,旨在提供增强可解释性的见解并验证模型的预测能力,强调在这一有前景的方向上进行更进一步、更广泛的研 - 语言模型作为反事实解释模块:ChatGPT 能否解释黑盒文本分类器?
使用大型语言模型作为反事实解释模块,通过提取潜在特征生成可解释黑盒文本分类器的决策的对策性解释。通过评估多个具体度的框架变体,显示了在不同设置下这些模型的性能差异,其中一种基于两步特征提取的变体在大多数情况下表现最好。该流程可用于自动解释系 - 基於密度視角的圖分類的反事實解釋
在图分类的背景下,本文提出了一种基于密度的反事实搜索框架来生成图分类器的实例级反事实解释,该框架可以用不同的密集子结构概念具体化,通过在 7 个脑网络数据集上进行的评估结果证实了采用密度等语义相关变化单位是定义多功能和可解释的反事实解释方法 - 使用策略蒸馏的深度强化学习模型反事实解释框架
该论文提出一种新颖的反事实解释框架,以解释黑盒 DRL 的决策,并在自动驾驶系统和 Atari Pong 游戏领域进行了多项实验。分析表明,所提出的框架为深层 DRL 的各种决策生成了可行且有意义的解释。
- 缺失值下的对事实解释
本文提出了一种新的 CE 框架 CEPIA,通过缺失值插补和操作对的方式实现了有效的解释,并通过无差别最大化问题准确地评估了新框架的表现。
- CeFlow:使用标准化流的稳健高效表格数据反事实解释框架
本文介绍了一种称为 CeFlow 的鲁棒且高效的计数事实解释框架,其利用正态化流来解决采样不稳定和计算速度慢的问题,并具有与最先进的方法相当的性能。
- AAAI利用反事实分析解释模型确信度
本文探究面向人工智能交互中置信度得分的反事实解释如何增强人对机器学习模型预测的理解和信任,并提出了两种理解置信度得分的方法,即基于反事实案例和基于反事实空间可视化,这两种方法可以相互补充,但也存在异同,因此需要进一步研究和设计更加精准有效的 - AAAI决策森林的快速近似反事实解释
本文提出一种简单且有效的方法,将寻找分类或回归森林的反事实解释所需的最优化问题限制在由实际数据点填充的森林定义的输入空间区域,并使用某个数据集上的某个距离的最近邻搜索来解决问题。这种解决方式有两个优点:能够快速找到解决方案,并且更有可能是现 - VCNet: 用于生成逼真反事实的自我解释模型
提出了 VCNet-Variational Counter Net,这是一个用于回归或分类的模型架构,它能够同时生成预测和接近预测类分布的因果解释,该模型在表格数据集上的实证评估结果表明,其结果与最先进的方法相当竞争。
- MM祛除:基于神经推荐系统的注意力因果解释
本文介绍了 CLEAR 方法,它可以从基于注意力的推荐器的注意力中学习会话特定的因果图,在潜在混淆因素的可能存在下进行。这些因果关系图描述了用户在注意力所捕捉到的上下文中的行为,并为推荐提供了反事实的解释。通过实证评估,我们发现与天真地使用 - 当对抗性攻击变成可解释性因果解释
本研究采用 1-Lipschitz 神经网络学习最佳传输问题的双重损失,研究发现,模型的梯度既是传输计划的方向,也是最接近的对抗攻击方向。通过在此类网络上应用简单的显著性图方法,我们得出结论:这种方法成为了可靠的解释方法,并在无限制模型上表 - MACE:一个高效的模型无关框架用于因果解释
提出了一种新的框架 Model-Agnostic Counterfactual Explanation (MACE),通过采用一种新设计的流水线来有效处理大量特征值上的非可分机器学习模型,其中包括使用基于 RL 的方法来找到良好的对策例子和 - AAAI通过约束松弛找到反事实解释
该研究提出了一种基于冲突检测和最大松弛的迭代方法,用于在交互式约束系统中计算对立解释,从而帮助用户理解可以应用于其现有约束的更改以使其满足约束条件。
- AAAI混合整数线性优化有序反事实解释
本研究提出一种基于特征交互的有序因果解释框架,通过混合整数线性优化方法寻找合适的特征交互顺序以提供实际决策中的应用。在真实数据集上的实验表明,与无序方法相比,该方法具有良好的效果。