动态卷积:卷积核的注意力机制
该论文提出一种更加通用而优雅的动态卷积设计,Omni-dimensional Dynamic Convolution (ODConv),通过多维度的注意力机制与并行策略学习卷积核在四个维度上的补充注意力,以提高各种流行的 CNN 主干网络的准确性,且可通过将其插入到现有 CNN 架构中来使用,实验证明与多个动态卷积方法相比,ODConv 甚至只需一组卷积核就能显著提高准确率。
Sep, 2022
本文研究了如何提高卷积神经网络的效率,提出了一种基于动态卷积方法的新型卷积操作,在多种 CNN 结构上进行了测试,并表明该方法可以在减少计算开销的同时保持性能,从而达到了更高的效率。
Apr, 2020
文章介绍了一种基于矩阵分解的新视角来重新考虑动态卷积的局限性,提出一种动态通道融合的方法来替代对通道组进行动态关注以解决优化问题,并降低了潜在空间的维数,从而减少了参数数量并且不影响准确性。
Mar, 2021
本文研究了使用自我关注(self-attention)和动态卷积(dynamic convolutions)两种机制建立语言和图像生成模型的效率以及准确性问题,并证明了动态卷积在大规模机器翻译、语言模型和提取式摘要等任务中的表现优于强的自我关注模型,得到了 WMT'14 英德测试集中 29.7 BLEU 的最高分。
Jan, 2019
本文提出一种利用卷积神经网络中的基于注意力的动态卷积核来提高模型分辨率能力的方法,将模型参数适应于特征条件,通过通道注意力和多层特征聚合进一步提取全局语音特征,从而提高特征表示效果。实验结果表明,该方法在使用较少数据的情况下取得了良好的识别效果。
Nov, 2022
本文提出了一种新框架 Sparse Dynamic Convolution(SD-Conv),它将动态卷积和不规则剪枝结合起来,通过使用可学习阈值导出二值化掩码以减少参数和计算成本,在 Imagenet-1K 数据集上获得更高的性能,并在多个下游任务中展示出优于基线的表现,从而成为常规动态卷积的高效替代品。
Apr, 2022
KernelWarehouse 是一种更通用的动态卷积形式,通过在同一层及相邻层之间利用卷积参数的依赖关系重新定义了 “核心”、“组装核心” 和 “注意函数” 等基本概念,以提高动态卷积的参数效率,并在 ImageNet 和 MS-COCO 数据集上使用各种 ConvNet 架构测试了其有效性。KernelWarehouse 还可应用于 Vision Transformers,在提高模型准确性的同时减小主干模型的尺寸。
Jun, 2024
提出了一种名为 DRConv 的动态区域感知卷积,它可以自动将多个过滤器分配给具有相似表示的相应空间区域,以更有效处理复杂和不同的空间信息分布,从而代替任何现有网络中的标准卷积,尤其适用于高效网络中的动力卷积层。在 ImageNet 分类中,DRConv-based ShuffleNetV2-0.5x 在 46M 乘积添加水平下实现了 67.1% 的最新性能,相对改进了 6.3%。
Mar, 2020
Dynamic Mobile-Former 是一种集成了轻量级注意力机制和增强动态卷积优势的网络模型,通过 Transformer 和 MobileNet 的双向集成实现对全局和局部特征的处理,在图像分类、目标检测和实例分割等各个视觉任务上取得了高效且卓越的性能。
Apr, 2023
本文提出了一种基于条件输入图像的动态卷积方法,其中通过引入一个小型门控分支来学习空间位置,以决定应该对哪些区域进行评估,通过在 CIFAR、ImageNet 和 MPII 数据集上的实验证明该方法在处理人体姿态估计等空间稀疏任务方面,相对已有方法具有更好的准确性和处理效率。
Dec, 2019