- 具有差分隐私的对比可解释聚类
本研究提出了一种新的可解释人工智能(XAI)方法,在聚类方法中将对比解释与差分隐私相结合。通过在常见的聚类问题中(包括 k - 中值和 k - 均值),我们给出了高效的差分隐私对比解释,能够获得与非差分隐私聚类解释基本一致的解释。在每个对比 - EMNLP宁愿是护士也不是医生 -- 对比解释的调查研究
对四个英文文本分类数据集进行分析,通过三种不同规模的模型以及三种后期解释性方法,验证了模型解释和人类解释在对比性和非对比性设置下的一致性。
- 运用基于属性和关系的相似案例解释:一种可解释的区分疼痛和厌恶面部表情的方法
通过对比样例解释概念是一种有效和方便的方式,可以深入了解分类决策背后的原因。本文提出了一种生成对比解释的方法,以解释视频序列中的疼痛和厌恶的面部表情。我们比较了两种生成对比解释的方法,并发现近似解释要比远离解释更短,这与应用的相似性度量无关 - 多智能体优化解决方案的对比解释
在多个真实场景中,代理参与了优化问题,然而由于这些场景往往是过约束的,所以最优解并不总能满足所有代理的需求。为了解决代理对初始解满意度不高的问题,本文提出了一种名为 MAoE 的领域无关方法,通过生成一个新的强制满足代理需求的解并最小化该解 - 对米勒对比(反事实)解释定义的修改
该研究提出了三种定义对比解释及其效果的方法,并提供了第一次对原始和修改后的 HP 定义进行明确比较的研究。
- CLIMAX:分类器基于对比解释的探索
本文提出了一种名为 CLIMAX 的后操作模型无关 XAI 技术,它提供了对黑盒分类器分类的对比解释以及为什么其他类别未被预测的理由。
- 图像分类的两阶段整体和对比解释
该研究提出了一种基于整体输出和对比解释的深度神经网络分类器输出解释方法,同时通过定量指标和人类主题研究进行了评估。
- 交互式对比解释 (REASONX)
REASONX 是一种基于约束逻辑编程的解释工具,提供可以增加背景知识的互动对比解释,针对机器学习模型和决策树进行解释,并具有更高的灵活性。
- 通过自动生成的解释理解机器人引导道德原则
本文探讨了对比和非对比解释如何用于理解机器人行动计划的伦理原则。通过一个用户研究,我们发现生成的解释有助于人们理解机器人计划的伦理原则。
- 为什么失败了?一种因果推理方法寻找机器人失败的解释
本文提出了一种新方法以解决机器人失败后向用户提供直观的因果解释,其利用生成对比性解释的方式,基于来自贝叶斯网络的因果模型,并在两个场景中测试了其准确性。
- 利用对比解释解读语言模型
该研究关注对语言模型的对比解释,证明对比解释在验证大型语法现象和改善对相互模拟性上是可量化地更好的,并且可以表征模型在各种语言生成决策中使用的输入令牌。
- 决策树的解释能力
本文研究布尔决策树在导出、最小化和计数足够原因和对比解释方面的计算能力,证明了给定决策树的实例的最小大小的所有足够原因集合可以指数级大于输入大小,因此生成完整的足够原因集合可能是不可行的,而生成一个足够原因集无法证明是充分的,介绍了相关特征 - EMNLP模型可解释性的对照解释
该研究提出了一种利用潜空间对分类模型进行对比解释的方法,可以对输入的文本进行高、低级别的概念和属性归纳分析,以实现更准确、细粒度的模型可解释性。
- 通过极简对比编辑(MiCE)解释 NLP 模型
该论文介绍了一种基于最小对比编辑(MiCE)的方法,用于以编辑输入的形式产生模型预测的对比解释,以修改模型输出到对比案例。MiCE 不仅是对比的,还是最小的和流利的,与人类对比编辑一致。该方法可以用于 NLP 系统开发中的两种用例:调试错误 - ALICE: 用对比自然语言解释的主动学习
提出了一种专家循环训练框架 ALICE,它利用对比的自然语言解释来提高学习的数据效率,通过提取和动态更改学习模型的结构来应用于鸟类物种分类和社会关系分类两个视觉识别任务中,验证结果表明,相较于使用 40-100% 更多的训练数据的基线模型, - 解释博弈:使用 Shapley 值解释机器学习模型
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
- IJCAI使用 SHAP 生成对照与反事实解释
本文提出了一种利用 SHAP 理论生成模型互解释性的模型无关方法,能够生成可用于人类理解的对比和反事实解释,并在 IRIS、葡萄酒质量和移动特性数据集上进行测试和分析。
- 结构化数据的模型无关对比解释
提出了一种模型无关对比解释方法(MACEM),旨在对任何分类模型生成对比解释,该方法处理实际和分类特征,提出了计算相应正例和反例的新方法,并通过 5 个公共数据集的定量和定性验证来证明该方法的有效性。
- KDD利用潜在特征进行本地解释
本研究探讨了一种利用潜在特征产生对照解释的新方向,通过添加新特征改变分类结果的方法进行预测的解释,证明了该方法在样本丰富的数据集上产生的直观解释优于其他方法,并可作为目前最先进的解释性方法的补充。
- 基于缺失的解释:利用相关性负例实现对比解释
该论文提出了一种新方法,通过对黑盒分类器(如深度神经网络)进行对比解释来证明输入数据的分类,从而找出应当在图像中呈现的具有重要目标的关键点以及应当缺省的某些背景像素,这样的解释方式适用于人类理解并广泛运用于医疗保健和刑事犯罪等领域中。作者在