通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
通过使用结构性因果模型,生成可行的对抗样本对于解释人工智能模型在医疗和金融等关键领域的决策是至关重要的。本论文提出了一种生成适用于实际应用中的可行对抗样本的方法,并且通过实验证明了其效果。
Dec, 2019
本文提出了一种基于决定点过程的生成和评估多样性反事实解释的框架,旨在优化反事实行为的可行性和多样性,并提供了可比较的度量标准来评估反事实方法。通过实验,验证了该框架能生成多样性的反事实,并且能有效地近似本地决策边界。
May, 2019
机器学习模型日益广泛应用,因此解释其预测和行为变得越来越重要。本文综述了针对多种不同机器学习模型高效计算对抗性解释的模型特定方法,并提出了文献中尚未考虑的模型方法。
Nov, 2019
使用多目标优化模型,通过生成逆因模型生成可信的对抗实例,以提高深度学习模型的透明度,检测偏见和数据不当的形式。
May, 2022
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
该论文提出了一种生成利用条件生成模型来生成稀疏的、在分布中反事实模型解释的通用框架,可适用于不同模态的数据,并说明了该方法在图像、时间序列和混合类型表格数据上的有效性。
Jan, 2021
提供关于机器学习算法如何工作和 / 或进行特定预测的解释是改善其可靠性、公平性和鲁棒性的主要工具之一。在解释类型中,反事实是最直观的一种,它是与给定点仅在预测目标和某些特征上不同的示例,它呈现了原始示例中需要改变的特征来翻转该示例的预测。然而,这种反事实可能具有与原始示例不同的许多不同特征,使得其解释困难。在本文中,我们提出明确为反事实生成添加一个基数约束,限制与原始示例不同的特征数量,从而提供更易解释和易理解的反事实。
Apr, 2024
本文提出一个新的概率模型,用于计算模型的多个对抗性解释。该模型可以共享群体分组的信息,并保留领域特定的约束条件,同时评估不确定性,并得出合理、稀疏、多样和可行的结果。
Jan, 2023
本文提出了一种新的方法 ——C-CHVAE,该方法可以生成可实现的反事实解释,以更好地满足反事实解释的质量要求。
Oct, 2019