本研究提出了一种可解释的方法,能够可视化神经网络中的内在机制和其对输出的影响,从而提高了深度神经网络的可解释性和决策过程,研究的主要贡献是提出了一种数据集中心的算法,适用于多个领域的深度神经网络结构。
Jun, 2017
该综述旨在提供一种全面的神经注意力模型开发和应用的现状和趋势的分析,系统回顾了数百种注意力模型的体系结构和应用,特别关注于卷积网络、循环网络和生成模型,描述了其在不同应用领域和神经网络可解释性上的影响。
Mar, 2021
本篇论文使用可视化方法解释自然语言推理任务中,使用神经网络模型的中间层的特征,为深度学习模型的解释提供了一种方法。
Aug, 2018
本文提出了一个新的深度学习框架,利用两级注意力体系结构来解决模型可解释性的问题,并在新闻文章分类任务中进行了实验,结果显示该模型在可解释性能力方面具有适当性并且与许多现有模型相比性能有竞争力。
Mar, 2022
本研究中,我们利用带有 attention 机制的 RNN 语言模型来进行深度学习方法的可解释性应用于计算机系统和日志数据的异常检测,实现了卓越的性能和可解释性。
Mar, 2018
本文提出了一种新颖的神经注意机制,采用了双注释数据集和深度学习模型来分类放射学头部计算机断层摄影报告,并使用注意力分析生成热力图以突出 CNN 模型使用的关键单词,证明该模型在医学决策等方面具有应用价值。
Aug, 2017
语义分割是计算机视觉中的一个重要问题。近期,采用端到端卷积神经网络的语义分割算法比传统方法更准确。然而,基于注意力机制的解码器在多个数据集上已经达到了最先进的性能,但这些网络通常只与之前的最佳网络的 mIoU 进行比较,忽略了它们的特点,并未考虑到不同类别中的计算复杂性和精度,这在工程应用中是必不可少的。此外,分析 FLOPs 和内存的方法在不同网络之间不一致,使得比较难以使用。此文首先进行实验以分析其计算复杂性并比较其性能。然后总结适用于这些网络的场景,并得出构建注意力网络时应关注的关键点。最后,指出了注意力网络的一些未来方向。
Sep, 2023
通过加入可训练的注意力模块,使得卷积神经网络在进行图像分类时能够更好地聚焦于感兴趣的区域,进一步提高了模型的稳健性。
Apr, 2018
本文提出了 Attention Branch Network(ABN)用于图像识别,它通过引入注意机制来表示图像的重要区域,并以分支结构扩展自顶向下的视觉解释模型,实现端到端的训练,同时提供了可视化的图像解释和获得比基准模型更高的精度。
Dec, 2018
本文旨在探索利用基于注意力机制的神经网络对特征进行重要性排序以用于模型解释的方法,通过对十个数据集进行规模无关的特征重要性估计算法比较的研究,展示了利用自注意力网络(SAN)对特征进行排序与其他方法在高级别特征识别上的相似性,以及在某些情况下,SAN 对特征交互性的识别比现有基线方法更具优势。
Feb, 2020