本研究旨在解决单张图像超分辨率任务中,通道注意力对不同图层之间相关性的忽视问题,为此,提出了一种新的整体注意力网络(HAN),其中包括层注意力模块(LAM)和通道 - 空间注意力模块(CSAM),它们旨在模拟层、通道、位置的整体依赖关系,以更好地保留信息丰富的特征,并通过广泛实验,取得了较好的效果。
Aug, 2020
本文介绍了一种新的卷积神经网络 SCA-CNN,其中引入了空间和通道注意力,用于图像描述任务,结果表明 SCA-CNN 明显优于现有的基于视觉关注的图像描述方法。
Nov, 2016
该研究介绍了一种新颖的基于地理空间分析的通道相关的注意力机制,其能够在卷积神经网络中利用特征图之间的空间关系来产生有效的通道描述符,并验证了其在图像分类、目标检测和实例分割等多个任务和数据集上相对于其他先进的基于注意力的卷积神经网络的竞争性性能和优越性。
May, 2024
本文通过应用双重注意力网络 (DANet) 和自注意力机制来捕捉语境相关性,以实现更准确的场景分割,在 Cityscapes 数据集上取得了 81.5% 的平均 IoU 得分,并提供了相应的代码和训练模型。
Sep, 2018
本文提出了一种新颖的挤压和注意力(SA)模块,结合传统卷积实现像素组关注和像素级预测,最终通过融合四个层次的 SANet 的输出来集成多尺度的上下文信息,从而实现了在 PASCAL VOC 和 PASCAL 上的语义分割任务中表现出色。
Sep, 2019
本研究提出了空间关系模块和通道关系模块,可用于学习和推理任何两个空间位置或特征图之间的全局关系,并产生关系增强的特征表示。研究团队在利用两个航空图像数据集进行的语义分割任务中使用这些模块,取得了相当优异的结果,比基准模型有显著提升。
Apr, 2019
该论文提出了在频域进行特征分解以解决通道表示问题的方法,使用多光谱通道注意力机制来实现通道压缩,并在图像分类、物体检测和实例分割任务上取得了优异的效果。
Dec, 2020
本文提出了逆向注意力网络(RAN),通过同时进行直接、反向和逆向 - 注意力学习过程,使得全卷积神经网络不仅可以学习标签化的语义对象的代表性语义特征,还可以学习与目标类别不相关的特征,在对 Pascal-Context 数据集和其他数据集进行实验后,在 DeepLabv2-LargeFOV 基础上建立的 RAN 在语义分割领域达到了最先进的 mIoU 得分(48.1%),同时也显著提高了 PASCAL-VOC、Person-Part、NYUDv2 和 ADE20K 数据集的性能。
Jul, 2017
提出了一种新的模型,称为 AttaNet,用于在保持高效的同时捕获全局上下文和多级语义,通过 Strip Attention 模块和 Attention Fusion 模块实现低复杂度计算和加权特征融合技术,并在两个语义分割基准测试中进行了广泛的实验,取得了不同水平的速度 / 精度平衡和领先的表现。
Mar, 2021
本文提出了一种双阶段特征增强注意力网络,用于 RGB-T 语义分割任务,可在保留空间信息的同时提高时间效率,并在城市场景数据集上优于其他 SOTA 的 RGB-T 方法。
Oct, 2021