本文综述了神经网络的可解释性研究,详细阐述了可解释性的定义、重要性、以及基于不同维度的新颖分类方法(如主动 / 被动解释方法、从局部到全局的解释等)。最后还总结了当前可解释性评估方法,并提出了新的研究方向。
Dec, 2020
该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021
本文综述了解神经网络表示和学习可解释 / 解耦的中间层表示的最新研究进展,并重点介绍了卷积神经网络 (CNNs) 的可视化、诊断、解耦、学习及其在可解释人工智能方面的前景趋势。
Feb, 2018
本文回顾了超过 300 种内部可解释性技术,并引入了一种分类方法,介绍了它们对神经网络的什么部分(权重、神经元、子网络或潜在表示)进行解释,以及它们是在训练期间(内在)还是在训练后(事后)实现的。这篇文章强调了诊断、调试、敌对性和基准测试在未来研究中的重要性,以便使可解释性工具在实际应用中更有用。
Jul, 2022
本文提供了一个现有方法的回顾,以开发具有内在可解释性的 DNN,重点关注卷积神经网络 (CNNs),旨在了解向完全可解释 DNN 的当前进展,并确定当前工作中的差距和潜在研究方向。
Jun, 2021
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
本文综述了神经影像领域中可解释深度学习模型的当前状态和应用,讨论了其相关方法、挑战和意见,以及如何利用模型解释性捕捉与模型预测相关的解剖和功能性大脑变化,最后讨论了当前做法的局限性,并提供了有关如何引导未来研究方向以使深度学习模型更加可解释并推进对脑疾病科学理解的宝贵见解和指导。
Jul, 2023
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
比较神经网络和生物电路之间的相似和不同,研究探讨了从生物学的行为和可理解的理由中深入了解神经网络从数据中学习的见解。
Mar, 2022
本文介绍了机器学习和深度学习算法在科学和工业领域中的应用及其不透明性问题,提出了解释性学习算法和可视化方法的重要性。
Sep, 2019