鲁棒的随机图生成器用于反事实解释
DyGRACE 是一种新颖的半监督图对因解释器方法,利用关于数据分布的初始知识在避免使用可能过时的决策函数的信息的情况下搜索有效的反事实,它通过两个图自编码器(GAEs)学习二元分类场景中每个类的表示,其方法独立于基础的黑盒预测模型,并且具有对比学习和漂移检测的能力,为半监督学习和解释生成开辟了新的途径。
Aug, 2023
本研究提出了 GCFExplainer 算法来解释图神经网络的全局可解释性,通过全局反事实推理寻找一组代表性的反事实图形,实验结果表明与现有局部反事实解释器相比,GCFExplainer 算法能够提供更重要的高层次 Model 行为见解,并以 46.9% 的弥补覆盖率和 9.5% 的弥补成本降低取得更好的结果。
Oct, 2022
该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。
Jan, 2021
通过梯度优化,引入了一种新的整合方法,为可区分分类模型生成本地、小组和全局反事实解释,以解决全局反事实解释所面临的挑战,并增强了可行性和可信度,从而提高了 AI 模型的可解释性和负责任性。
May, 2024
本研究引入了一种新的方法论,名为用户反馈式反事实解释(UFCE),以解决当前反事实解释算法的局限性,并旨在提高对提供的解释的置信度。实验证明,UFCE 在接近度、稀疏度和可行性方面胜过两种著名的 CE 方法,并指出用户约束对生成可行的反事实解释具有影响。
Feb, 2024
提出了一种能够生成对于噪音稳健且符合人类直觉的图神经网络的可靠反事实解释的新方法,该方法明确地对相似输入图的常见决策逻辑进行建模,并从许多相似输入图的公共决策边界中产生可靠的解释。
Jul, 2021
本研究是针对图神经网络中预测的因果性解释提出了一种使用数据扰动来对其进行真伪性检测的方法,我们使用边缘删除的方法,发现我们的方法 CF-GNNExplainer 不仅可以在预测上具有良好的准确性,还可以通过最少的边缘删除来生成因果性解释。
Feb, 2021
对于机器学习模型的预测结果影响的人来说,反事实解释(CEs)被认为是提供理想算法解决方案的。然而,最近的工作揭示了与获取 CEs 的最新方法相关的严重问题的存在,因此需要采取技术来减轻风险。在这项调查中,我们回顾了快速发展的稳健 CEs 领域的研究,并对其所考虑的稳健性形式进行了深入分析。我们还讨论了现有解决方案及其限制,为未来的发展提供了坚实的基础。
Feb, 2024