通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
通过引入图形编辑作为反事实解释,将输入数据表示为图形,寻找一条最短的图形编辑路径,以达到黑盒分类器提供的替代分类标签。
Jan, 2024
本文提出了一种新的方法 ——C-CHVAE,该方法可以生成可实现的反事实解释,以更好地满足反事实解释的质量要求。
Oct, 2019
该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。
Jan, 2021
提供关于机器学习算法如何工作和 / 或进行特定预测的解释是改善其可靠性、公平性和鲁棒性的主要工具之一。在解释类型中,反事实是最直观的一种,它是与给定点仅在预测目标和某些特征上不同的示例,它呈现了原始示例中需要改变的特征来翻转该示例的预测。然而,这种反事实可能具有与原始示例不同的许多不同特征,使得其解释困难。在本文中,我们提出明确为反事实生成添加一个基数约束,限制与原始示例不同的特征数量,从而提供更易解释和易理解的反事实。
Apr, 2024
本文提出了一种基于符号化方法的反事实解释方法,该方法可以根据分类器预测中的哪些特征需要改变来为模型提供反事实解释。该方法利用已有的知识库修复解决方案生成最小纠正子集(MCS),并且在贝叶斯分类器上的初步实验研究显示了其巨大潜力。
Jun, 2022
本研究提出了一种以物体为中心的框架来生成反事实解释,该方法通过将查询图像编码到潜在空间中,以便在物体级别上进行操作,并且可以适用于驾驶场景的反事实解释基准测试,并且设计并运行了用户研究以衡量反事实解释在理解决策模型方面的有用性。
Nov, 2022
本文提出了一种名为 CROCO 的新框架,用于生成具有鲁棒性的反事实解释,并有效地管理反事实输入更改带来的挑战,针对表格数据进行评估,证明了该方法的有效性。
Apr, 2023
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019