构建数据结构:朝向语义图对比事实
本研究介绍了一种新的稳健随机图生成器 RSGG-CE,能够从学习的潜在空间产生可行的反事实例子,并通过定序生成序列考虑来量化和质化地比较 RSGG-CE 与现有方法生成反事实候选者的性能,凸显其更高的能力。
Dec, 2023
本研究提出了一种系统化方法 —— 概念反事实解释(CCE),旨在利用人类理解的概念(例如,由于条纹不清晰,这只斑马被错误地分类为狗)解释分类器在特定测试样本上出错的原因,并在多个已知的预置模型上验证了 CCE 的有效性及其对于缓解偏差的作用,同时也确认了 CCE 可以对带有噪声偏旁相同的数据进行准确分析。
Jun, 2021
本文提出了一种基于 Distribution Compliant Explanation(DCE)的 Contrastive GNN Explanation(CoGE)技术,该技术适用于 Graph Neural Networks,并且可以提供更精确的模型解释。
Oct, 2020
利用类描述逻辑中的类表达式,我们提供了异构图的解释方法,通过 GNN 和两种不同的评分函数,构建多个图并聚合预测得分,或者通过保真度评分函数将 GNN 的预测结果与类表达式的预测结果进行比较,而非使用子图解释。
May, 2024
通过改进自动编码器的潜空间生成方法,该论文介绍了一种新的生成反事实解释的方法,该方法在保持输入样本特征的同时能有效地返回更接近原始数据的结果,适用于高维机器学习应用。
Jul, 2023
本文提出了一种新型的生成式反事实性解释框架,旨在生产可信度高、修改最小、保留结构的高质量图像。同时介绍了 “针对区域的反事实性解释” 概念和相应框架,通过指定图像的语义区域来指导反事实性产生,证明了该框架在高质量人像和复杂场景等数据集上的有效性。
Nov, 2021
DyGRACE 是一种新颖的半监督图对因解释器方法,利用关于数据分布的初始知识在避免使用可能过时的决策函数的信息的情况下搜索有效的反事实,它通过两个图自编码器(GAEs)学习二元分类场景中每个类的表示,其方法独立于基础的黑盒预测模型,并且具有对比学习和漂移检测的能力,为半监督学习和解释生成开辟了新的途径。
Aug, 2023