该篇论文综述了深度神经网络在机器学习中的应用,针对一些需要保证安全性的决策(如控制系统和医疗应用),介绍了当前解释性人工智能(XAI)领域的研究,探究和解释 DNNs 内部和整体行为的方法。
Feb, 2021
本文介绍了机器学习和深度学习算法在科学和工业领域中的应用及其不透明性问题,提出了解释性学习算法和可视化方法的重要性。
Sep, 2019
研究了深度学习方法面临的可解释性困境,提出了一种叫做 “深度视觉解释” 的框架,通过可视化技术来识别和暴露深度学习模型性能行为的假设,以提高模型的可解释性和可调试性,并展示了初步的可解释性应用实验结果。
Nov, 2017
本文提供了一份指南,让初学者可以更轻松地掌握可解释深度学习的基础方法和相关研究领域,介绍了三个定义了基础方法空间的简单维度、讨论了模型解释的评估以及可解释性在其他相关研究领域中的位置,并详细阐述了面向用户的解释设计和可解释深度学习可能的未来方向。
Apr, 2020
研究了两种深度神经网络解释说明的主流方向,一种是基于特征的事后解释方法,另一种是自解释的神经网络模型,并生成自然语言解释。
Oct, 2020
该研究提出了一种使用新方法训练的深度超网络来生成可解释的线性模型的方法,以保留黑匣子深度网络的准确性并提供自由的可解释性,而需要与黑匣子深度模型相同的运行时和内存资源,实现了实用性,实验结果表明,该可解释的深层网络在表格数据上与最先进的分类器一样准确,且在实际预测中也具有与最先进的解释技术相当的解释能力。
May, 2023
本论文调查了支持黑匣子性能诊断范式的工具,以深度神经网络为基础,探讨了模型行为和预测误差的诊断过程,并讨论了相关研究方向和除 CV 外的诊断工具的简要概述。
Jan, 2022
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
本文回顾了可解释的深度学习在医学影像任务中的应用,讨论了这种方法的不同途径,临床应用挑战以及需要进一步研究的领域。
May, 2020
该论文展示了知识图谱注入的深度学习方法,并讨论了这种方法对当前自然语言处理在医疗和教育领域中的可解释性和可解释性的基本差异。