探讨各种用于计算机视觉任务的深度神经网络的解释器和解释系统,比较了几篇有关可解释性的调查论文,并归纳出了进一步的研究方向。
Nov, 2019
本文介绍了机器学习和深度学习算法在科学和工业领域中的应用及其不透明性问题,提出了解释性学习算法和可视化方法的重要性。
Sep, 2019
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
该论文系统地回顾了近期研究的理解神经网络机理、解释深度学习应用特别是在医疗领域方面以及讨论了解释性研究的未来方向,如与模糊逻辑和脑科学的关系。
Jan, 2020
该论文的研究内容主要涵盖了人工智能、深度神经网络、可解释 AI、视知觉技术以及深度模型的调试等领域。论文提出的 Perception Visualization 技术通过可视化深度模型对于输入图像的感知来解释模型预测结果,研究发现人类能够更好地理解和预测系统决策,从而使深度模型的调试和部署更加可靠。
Apr, 2022
本文提供了一份指南,让初学者可以更轻松地掌握可解释深度学习的基础方法和相关研究领域,介绍了三个定义了基础方法空间的简单维度、讨论了模型解释的评估以及可解释性在其他相关研究领域中的位置,并详细阐述了面向用户的解释设计和可解释深度学习可能的未来方向。
Apr, 2020
研究了两种深度神经网络解释说明的主流方向,一种是基于特征的事后解释方法,另一种是自解释的神经网络模型,并生成自然语言解释。
Oct, 2020
研究了深度学习方法面临的可解释性困境,提出了一种叫做 “深度视觉解释” 的框架,通过可视化技术来识别和暴露深度学习模型性能行为的假设,以提高模型的可解释性和可调试性,并展示了初步的可解释性应用实验结果。
Nov, 2017
本文回顾了与深度学习可解释性和控制相关的视觉分析、信息可视化和机器学习观点,讨论了潜在的挑战和未来研究方向。
Apr, 2018
本文回顾了超过 300 种内部可解释性技术,并引入了一种分类方法,介绍了它们对神经网络的什么部分(权重、神经元、子网络或潜在表示)进行解释,以及它们是在训练期间(内在)还是在训练后(事后)实现的。这篇文章强调了诊断、调试、敌对性和基准测试在未来研究中的重要性,以便使可解释性工具在实际应用中更有用。
Jul, 2022