更关注注意力:通过注意力迁移改善卷积神经网络的性能
本文针对使用卷积操作在视觉任务中只关注局部局部信息、缺乏全局信息的不足,提出运用自注意力机制对视觉任务进行处理的方法;通过在图像分类和目标检测任务中实现卷积和自注意力的融合,可有效提高模型精度。
Apr, 2019
本文提出了一种受人类感知启发的注意力模型,并将其融合到现代神经网络架构中。实验结果表明,引入注意力机制可以显著提高模型的对抗鲁棒性,在各种随机攻击强度下可以达到最先进的 ImageNet 准确度;通过控制注意力步骤的数量可以使模型的防御能力更强,并且可以对抗更强的攻击;攻击模型生成的对抗样本有着与传统对抗样本不同的全局、显著和空间一致的结构,这些结构来自目标类别并且甚至可以被人类识别,会使模型注意力从原始图像中的主要物体分散开来。
Dec, 2019
该综述旨在提供一种全面的神经注意力模型开发和应用的现状和趋势的分析,系统回顾了数百种注意力模型的体系结构和应用,特别关注于卷积网络、循环网络和生成模型,描述了其在不同应用领域和神经网络可解释性上的影响。
Mar, 2021
通过对机器注意力机制和人类视觉注意力关系的系统研究,本文发现人类关注可以作为注意驱动任务有意义的基准,并证明更接近人工注意力机制的性能更好,同时更好的注意力对于更高级别的计算机视觉任务的可解释性也有显著提升。
Jun, 2019
该研究提出了一种基于注意力机制的深度神经网络模型解释方法,通过可视化生成的热图分析分类准确性和注意力之间的关系,并证明了使用改进注意力方法可以更好的展示分类器的解释。
Jan, 2019
卷积神经网络是建模视觉皮质神经元转移函数的最先进方法。这篇论文发现,与参数匹配的标准卷积神经网络相比,非局部网络或自注意机制在整体调谐曲线相关性和调谐峰值这两个关键度量上可以提高神经响应预测,并且可通过分解网络确定每个上下文机制的相对贡献,揭示了局部感受野中的信息对于模拟整体调谐曲线最为重要,而周围信息对于表征调谐峰值至关重要;并且在学习过程中自注意力可以取代后续的空间整合卷积,与全连接输出层相结合,两种上下文机制相辅相成;最后,学习以接受感受野为中心的自注意模型,在逐步学习全连接输出之前,能够提供更具生物学现实性的中心 - 周围贡献的模型。
Jun, 2024
本文中,我们介绍了一种利用卷积神经网络检测具有局部平移不变性和长远主题型注意力特征的关注神经网络,用于解决将源代码片段极端归纳为类似函数名称的概述的问题,在十个流行的 Java 项目中进行测试,并显示出优于之前注意性机制的性能。
Feb, 2016
通过比较使用不同架构的神经网络在机器阅读理解中的表现,发现与人类视觉注意力较为相似的 LSTM 和 CNN 模型的性能表现显著关联,但与之性能最佳的 XLNet 模型关联性不明显,提示不同架构的神经网络的注意力策略存在差异,且神经注意力与人类注意力相似性并不代表拥有最佳表现。
Oct, 2020