注意力增强卷积网络
通过使用自注意力替换空间卷积操作,得出了一个完全的自注意力模型,该模型相比于基线 ImageNet 分类任务具有 12%更少的 FLOPS 和 29%更少的参数,而在 COCO 目标检测方面,与基线 RetinaNet 匹配的 mAP,但具有 39%更少的 FLOPS 和 34%更少的参数。
Jun, 2019
本文研究探索了自注意力在图像识别模型中的应用,比较了两种形式的自注意力(分别为成对自注意力和区域自注意力)与卷积神经网络在图像识别上的表现,并发现自注意力网络对于学习稳健的表征具有明显的优势。
Apr, 2020
使用数据相关卷积和注意力机制,提出了一种特殊的自注意力网络模型,称之为 Affine Self Convolution,并在 CIFAR10 和 CIFAR100 数据集上进行了评估,结果显示该模型在减少参数数量的同时,在测试时获得了与基线模型相当或更高的准确率。
Nov, 2019
该论文研究了自注意力在计算机视觉领域的应用,并提出了两种改进模型的方法,使其在速度、内存使用和准确性等方面优于传统的卷积模型,进而提出了一种名为 HaloNets 的新的自注意力模型家族,并在 ImageNet 分类基准测试中取得了最先进的准确性。
Mar, 2021
本文全面比较了各种最先进的自注意机制在多个医学图像分析任务中的效果,并通过定量、定性和临床用户调查,旨在深入了解自注意在医学计算机视觉任务中的影响。
Sep, 2021
本文指出卷积和自注意力之间存在强烈的联系,两个模型的第一阶段都包含了相似的运算,本文提出了 ACmix 模型将它们混合使用从而最小化计算成本,实验结果表明,该模型在图像识别和 Downstream 任务上均取得了显著的改进。
Nov, 2021
本文介绍了一种新的自我注意力模块,使用一种明确建模的注意力映射,利用几何先验来提高图像分类的准确性,实验证明该方法在 ImageNet ILSVRC 中的准确性提升了 2.2%,在参数和计算量分别减少 6.4% 和 6.7% 的情况下,相对于 AA-ResNet152 准确率提高了 0.9%。
Jun, 2020
本文研究了使用自我关注(self-attention)和动态卷积(dynamic convolutions)两种机制建立语言和图像生成模型的效率以及准确性问题,并证明了动态卷积在大规模机器翻译、语言模型和提取式摘要等任务中的表现优于强的自我关注模型,得到了 WMT'14 英德测试集中 29.7 BLEU 的最高分。
Jan, 2019