本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
本研究回顾了深度学习的鲁棒性问题,尤其是从近似理论到统计学习理论的关注和尝试,并回顾了贝叶斯深度学习作为不确定性量化和严格可解释性的一种手段。
Jul, 2023
最近在机器学习和深度学习研究领域的重大突破为利用海量数据和优化包含数百万参数的庞大模型以获得图像处理方面的准确网络提供了出色的工具,进而为在自动化和人工智能行业中使用人工智能打开了巨大的机遇。然而,随着越来越多的模型在实践中得到部署和使用,也出现了许多挑战。本文介绍了解决在实践中使用机器学习和深度学习所面临的鲁棒性和可解释性挑战的多种方法。
Mar, 2024
本篇论文介绍了最常见的解释性方法和评估可靠性的指标,并探讨了它们在神经影像学方面的应用和基准测试。
Apr, 2022
该论文系统地回顾了近期研究的理解神经网络机理、解释深度学习应用特别是在医疗领域方面以及讨论了解释性研究的未来方向,如与模糊逻辑和脑科学的关系。
Jan, 2020
本文回顾了超过 300 种内部可解释性技术,并引入了一种分类方法,介绍了它们对神经网络的什么部分(权重、神经元、子网络或潜在表示)进行解释,以及它们是在训练期间(内在)还是在训练后(事后)实现的。这篇文章强调了诊断、调试、敌对性和基准测试在未来研究中的重要性,以便使可解释性工具在实际应用中更有用。
Jul, 2022
该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021
该研究探讨深度神经网络的可解释性,提出了一种基于 conductance 度量法将 DNN 的预测得分分解为隐藏单元贡献和通过二元分类器自动鉴别 DNN 错误预测的方法,该方法能够提高模型的鲁棒性。同时,加入 Wang 等人的思路,可以进一步提高错误预测的检测效果。
Oct, 2019
通过将数据监督引入机器学习预测模型,我们提出了一种实时模型无关的方法,评估机器学习预测的相对可靠性,并通过针对操作数据集与训练数据集之间的差异来计算预测的相对可靠性,用以支持机器学习预测在常规插值任务中的可信度。
Aug, 2023
本文提供了一个现有方法的回顾,以开发具有内在可解释性的 DNN,重点关注卷积神经网络 (CNNs),旨在了解向完全可解释 DNN 的当前进展,并确定当前工作中的差距和潜在研究方向。
Jun, 2021