利用深度学习发现科学图像数据的可解释模型
本文综述了神经影像领域中可解释深度学习模型的当前状态和应用,讨论了其相关方法、挑战和意见,以及如何利用模型解释性捕捉与模型预测相关的解剖和功能性大脑变化,最后讨论了当前做法的局限性,并提供了有关如何引导未来研究方向以使深度学习模型更加可解释并推进对脑疾病科学理解的宝贵见解和指导。
Jul, 2023
通过对神经影像学应用的可解释性深度学习方法的文献进行系统回顾和评估,本研究发现最受欢迎的可解释性深度学习方法在神经影像数据上可能不太理想,并探讨了该领域的可能未来方向。
May, 2024
本文介绍了一种名为 “可解释的 Mimic 学习” 的新型知识蒸馏方法,用于学习解释性的表型特征,以进行强大的预测,同时模仿深度学习模型,以解决临床决策中关键的模型可解释性问题。在临床时间序列数据集上进行的详尽实验表明,我们的方法获得了与深度学习模型相似或更好的性能,且为临床决策提供了可解释的表型特征。
Dec, 2015
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
通过提出广义函数线性模型作为一个可解释的替代模型,可以在科学机器学习中获得可比较的准确性并提高超出分布数据的泛化能力,同时提供更多的透明度和可解释性。
Jul, 2023
本文介绍了如何使用可解释性模型进行 AI 模型的迁移学习,通过将深度神经网络分解成可解释的浅层模型,然后使用人类可解释概念构建了一组混合模型以实现针对未知领域的高效微调,最终使用半监督学习中的伪标签技术来在目标领域学习概念分类器并进行微调。在大规模胸部 X 射线分类数据集上评估了模型。
May, 2023
对 42 篇研究进行了系统综述,旨在讨论深度学习模型如何支持癌症生物学的推理,并重点关注多组学分析。我们介绍了一种称为生物中心可解释性的概念,并根据其分类方法讨论了在这些模型中整合领域先验知识的表征方法。分析表明,编码先验知识和改进解释性之间存在趋同性,这是深度学习模型形式化生物解释性和发展不那么特定于问题或应用的方法的重要一步。
Jul, 2022