Apr, 2022
机器学习方法应用于神经影像的可解释性
Interpretability of Machine Learning Methods Applied to Neuroimaging
Elina Thibeau-Sutre, Sasha Collin, Ninon Burgos, Olivier Colliot
TL;DR本篇论文介绍了最常见的解释性方法和评估可靠性的指标,并探讨了它们在神经影像学方面的应用和基准测试。
Abstract
deep learning methods have become very popular for the processing of natural
images, and were then successfully adapted to the neuroimaging field. As these
methods are non-transparent, →
发现论文,激发创造
深入探索神经影像中可解释深度学习的综合调查
本文综述了神经影像领域中可解释深度学习模型的当前状态和应用,讨论了其相关方法、挑战和意见,以及如何利用模型解释性捕捉与模型预测相关的解剖和功能性大脑变化,最后讨论了当前做法的局限性,并提供了有关如何引导未来研究方向以使深度学习模型更加可解释并推进对脑疾病科学理解的宝贵见解和指导。
Jul, 2023
可解释深度学习在神经影像学中的应用综述
通过对神经影像学应用的可解释性深度学习方法的文献进行系统回顾和评估,本研究发现最受欢迎的可解释性深度学习方法在神经影像数据上可能不太理想,并探讨了该领域的可能未来方向。
May, 2024
可解释的深度学习:解释、可解释性、可信度及其他
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
神经网络可解释性调查
本文综述了神经网络的可解释性研究,详细阐述了可解释性的定义、重要性、以及基于不同维度的新颖分类方法(如主动 / 被动解释方法、从局部到全局的解释等)。最后还总结了当前可解释性评估方法,并提出了新的研究方向。
Dec, 2020
可解释的人工智能:理解、可视化和解释深度学习模型
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
关于可证实解释性研究的探索
本文介绍了深度神经网络的可解释性研究及其方法,指出目前的方法存在的局限和风险,并提出了以可证伪性为核心的新的研究框架,目的是为了产生更具意义和可靠的可解释性方法。
Oct, 2020
深度神经网络及其相关方法和应用综述
本文概述了新兴的解释型 AI 领域,着重介绍了 “事后” 解释,从理论和比较评估的角度对解释算法进行测试并总结最佳应用实践,在代表性应用场景中成功使用可解释的 AI,并讨论其未来挑战和方向。
Mar, 2020