在医学成像中,辨识人工智能模型预测背后的理由对于评估其决策的可靠性至关重要。为了填补这一差距,我们提出了一种具备决策推理和特征识别能力的可解释模型,不仅能够检测有影响力的图像模式,还能揭示驱动模型最终预测的决定性特征。通过实施我们的方法,我们能够有效地识别和可视化数据驱动模型利用的类别特定特征,为深度学习模型的决策过程提供洞察,验证了我们的模型在医学预测任务中的效用和潜力,从而提高了人工智能在医疗保健领域的可靠性,并发现了在预后理解有限的疾病中的新知识。
May, 2024
该研究提出了一种黑盒对抗解释器来解释医学应用中的图像分类模型,并通过对诊断放射学居民进行实验,发现反事实解释是唯一能显着提高用户对分类器决策理解的解释方法。
Jan, 2021
探索使用对抗性样本阐述来理解医疗图像诊断中深度学习模型的决策机制。
Jul, 2022
通过解释技术,提出了一种将解释转换为科学探索机制的框架,并证明结合黑盒预测器和生成模型可以用于生成无人类先验条件的假设,该技术用于糖尿病黄斑水肿的分类模型,成功连接模型的性能和人类理解。
Jul, 2020
在不需要重新训练或调整的情况下,使用预训练的生成模型,介绍了生成因果关系和可解释的反事实解释方法,以提供对黑匣子算法的透明性,并获得对面部属性分类器的对比和因果支持和必要分数,从而展示不同属性如何影响分类器输出。
Jun, 2022
本文介绍了一种基于生成对抗网络 (GAN) 的方法,用于生成可以解释神经网络黑盒模型的替代性解释,进一步通过用户研究验证了替代性解释与反事实解释相辅相成。
本文提出了一种基于深度神经网络的自然语言解释方法用于图像的分类,其中通过缺失证据来产生反事实解释,并提出了自动度量以分析所生成的反事实解释。
Jun, 2018
该研究通过在三种不同类型的机器学习模型上进行基准评估来调查机器学习模型对反事实解释生成的影响,发现不同的机器学习模型对反事实解释生成没有影响,强烈建议进行定性分析来确保反事实解释的稳健分析和潜在偏差的识别。
Mar, 2022
通过提出一种基于随机学习的框架和特征选择模块来平衡反事实解释的权衡,本研究在生成可行的反事实解释方面展现了其有效性,并表明其比基线更加多样化和高效。
Sep, 2022
该研究提出一种基于因果关系的方法来解释黑盒决策系统,并使用概率对比反事实证明其有效性,能够为受算法决策影响的个体提供可行的补救措施。该方法不需要了解算法内部结构,能够计算全局、局部和情境层面的有效解释和补救措施。经实验证明,该方法较 XAI 的其他流行算法效果更好。
Mar, 2021