利用图像翻译生成反事实来进行科学发现
这篇论文提出了一种名为DISSECT的新方法,该方法可以有效地实现生成解释、概念解缠、反事实解释、可解释性和偏见检测等课题。该方法使用少量监督同时训练生成器、鉴别器和概念解缠器,通过生成分类器辨别信号的生成模型,能够自动发现分类器固有的不同概念。应用该方法能够检测分类器的潜在偏见和识别影响预测的虚假因素。
May, 2021
提出了使用 RES 框架进行监督解释的方法以提高深度神经网络的外推泛化性和内在的可解释性,该框架可解决标注不准确、区域不完整和分布不一致等挑战,经测试在两种实际图像数据集上均表现较好。
Jun, 2022
本研究提出了一种自动视觉解释方法,通过生成关于图像中哪些视觉信号与任务相关的假设,利用团队专业知识实现。该方法通过对分类器进行训练,使用StylEx进行图像生成和自动检测可视化,为AI模型提供解释和为未来研究提供假设。在八项预测任务中进行了验证,并展示了一些已知的属性、超越生理机制的属性以及潜在的生理学属性。
Jun, 2023
本文提出了一个新的概念性系统,利用一定数量的超像素图像作为输入,可以自动学习、评分和提取局部和全局概念,在提高性能的同时,深入了解预测并阐明误分类。
Jun, 2023
最新的视觉反事实解释方法利用深度生成模型的能力合成了高维度图像的新示例,本研究提出了一个系统的、量化的评估框架以及一组最小的指标,探索了最新的基于扩散的生成模型在自然图像分类的反事实解释方面的关键设计选择的效果,并通过产生数千个反事实解释来对各种复杂度、准确性和鲁棒性的分类器进行了一系列消融实验,为未来反事实解释方法的进一步改进和发展提出了多个方向,通过分享研究方法和解决计算挑战的方法,为该领域的研究人员提供了宝贵的指导,促进了对反事实解释的评估的一致性和透明度。
Aug, 2023
提出使用因果生成学习作为解释图像分类器的可解释工具,利用生成对事实推理方法研究视觉特征和因果因素对分类器决策的影响,提供了针对可解释因果数据集的对抗解释方法,通过与OmnixAI开源工具进行对比,发现我们的方法提供的对事实解释更可解释,适用于生成高度可解释的对事实解释。
Jan, 2024
通过使用可解释的模型,我们研究如何从复杂图像数据中得出科学洞见,并通过实现解缠表示学习、稀疏深度神经网络训练和符号回归等方法,对复杂图像数据形成可解释的模型进行评估,以及探索这些可解释模型在揭示潜在生物现象方面的用途。
Feb, 2024
本文介绍了一种基于生成对抗网络(GAN)的方法,用于生成可以解释神经网络黑盒模型的替代性解释,进一步通过用户研究验证了替代性解释与反事实解释相辅相成。
May, 2024
这篇论文提出了Vision transformers(ViTs)在解释方法方面的需求,通过引入概率概念解释器(PACE)来提供可信的事后概念解释,并通过实验表明PACE在定义的需求方面优于现有方法。
Jun, 2024
在医学成像中,辨识人工智能模型预测背后的理由对于评估其决策的可靠性至关重要。为了填补这一差距,我们提出了一种具备决策推理和特征识别能力的可解释模型,不仅能够检测有影响力的图像模式,还能揭示驱动模型最终预测的决定性特征。通过实施我们的方法,我们能够有效地识别和可视化数据驱动模型利用的类别特定特征,为深度学习模型的决策过程提供洞察,验证了我们的模型在医学预测任务中的效用和潜力,从而提高了人工智能在医疗保健领域的可靠性,并发现了在预后理解有限的疾病中的新知识。
May, 2024