本文针对使用卷积操作在视觉任务中只关注局部局部信息、缺乏全局信息的不足,提出运用自注意力机制对视觉任务进行处理的方法;通过在图像分类和目标检测任务中实现卷积和自注意力的融合,可有效提高模型精度。
Apr, 2019
本文研究了使用自我关注(self-attention)和动态卷积(dynamic convolutions)两种机制建立语言和图像生成模型的效率以及准确性问题,并证明了动态卷积在大规模机器翻译、语言模型和提取式摘要等任务中的表现优于强的自我关注模型,得到了 WMT'14 英德测试集中 29.7 BLEU 的最高分。
Jan, 2019
本文指出卷积和自注意力之间存在强烈的联系,两个模型的第一阶段都包含了相似的运算,本文提出了 ACmix 模型将它们混合使用从而最小化计算成本,实验结果表明,该模型在图像识别和 Downstream 任务上均取得了显著的改进。
Nov, 2021
本文提出了一种基于动态生成关系卷积核和聚合关系背景的关系特征变换 —— 关系自注意力 (RSA),用于视频理解。通过实验和消融研究,证明 RSA 网络在视频动作识别等领域明显优于传统卷积和自注意力网络。
本文研究探索了自注意力在图像识别模型中的应用,比较了两种形式的自注意力(分别为成对自注意力和区域自注意力)与卷积神经网络在图像识别上的表现,并发现自注意力网络对于学习稳健的表征具有明显的优势。
Apr, 2020
该论文研究了自注意力在计算机视觉领域的应用,并提出了两种改进模型的方法,使其在速度、内存使用和准确性等方面优于传统的卷积模型,进而提出了一种名为 HaloNets 的新的自注意力模型家族,并在 ImageNet 分类基准测试中取得了最先进的准确性。
Mar, 2021
通过使用自注意力替换空间卷积操作,得出了一个完全的自注意力模型,该模型相比于基线 ImageNet 分类任务具有 12%更少的 FLOPS 和 29%更少的参数,而在 COCO 目标检测方面,与基线 RetinaNet 匹配的 mAP,但具有 39%更少的 FLOPS 和 34%更少的参数。
Jun, 2019
本篇论文介绍了一种新颖的卷积自注意力网络,通过引入多头注意力机制,加强了邻近元素之间的依赖关系,并能够对各个注意力头提取的特征之间的交互进行建模,用于机器翻译任务中能有效提高自注意力网络的本地性,实验证明该方法优于常用的 Transformer 模型和其他已有的模型,并且没有更多的额外参数。
本研究表明防止卷积操作而采用自注意层可以获得与卷积层相同的表现,这提供了一种证明多头自注意层与卷积层至少具有相同表征能力的方法。
Nov, 2019
本文通过凸对偶性的视角分析了自我注意力及其替代方案的基础归纳偏差问题,并为非线性点积自我注意力和替代机制提出了有解释性且可全局最优求解的等效有限维凸问题。通过实验证明,与现有的 MLP 或线性 heuads 相比,自我注意网络的偏差对于 CIFAR-100 分类任务具有吸引力。
May, 2022