深度神经网络的交错分组卷积
本文提出了一种名为 IGCV3 的卷积神经网络模型,它采用了结构稀疏低秩内核的组合,并在超通道上引入松散的互补条件,以提高网络性能在 CIFAR、ImageNet 图像分类和 COCO 目标检测方面的表现,优于现有的 IGCV2 和 MobileNetV2。
Jun, 2018
本文研究设计高效卷积神经网络的问题,提出了一种模块化建筑单元 {IGCV$2$:},这种结构化稀疏卷积消除卷积核冗余,并呈现出计算效率与精度上的平衡。实验证明,相较于现有的架构设计方法,本文提出的方法在模型大小、计算复杂性和分类精度方面都有优势。
Apr, 2018
本文提出了一种名为 CLC 的广义卷积操作,即使用输入通道的子集来计算输出通道,该操作包括深度卷积和分组卷积,这可以用于构建新的卷积块 CLC Block,从而建立更高效的 CNN 模型 clcNet,并在 ImageNet-1K 数据集上进行测试。
Dec, 2017
介绍了一种新型卷积神经网络,称为 Group equivariant Convolutional Neural Networks (G-CNNs),它通过利用对称性降低样本复杂度,使用新型层 G-convolutions,增加网络的表达能力,且易于使用和实现。 G-CNNs 在 CIFAR10 和旋转的 MNIST 上实现了最先进的结果。
Feb, 2016
本文提出一种动态组卷积 (Dynamic Group Convolution, DGC) 方法,它不仅保留了原有网络结构,还能够根据输入图像动态选择连接哪些输入通道,以实现对图像语义特征的自适应提取,有效提高了卷积神经网络的计算效率和图像分类性能。
Jul, 2020
本文介绍了一种名为 Groupable ConvNet (GroupNet) 的新型网络,通过新型的动态分组卷积(DGConv)操作学习端到端的组数,达到了优于传统 ResNet 和 ResNeXt 的准确性和计算复杂度。该方法具有统一的卷积表示,可执行许多现有卷积操作,是一个可微和灵活的操作,可以从训练数据中学习执行各种卷积操作。
Aug, 2019
本文提出了一种新的卷积神经网络模型,称为双卷积神经网络,该模型通过共享权重参数进行优化,在图像分类领域有着显著的性能提升。在 CIFAR-10,CIFAR-100 和 ImageNet 等图像分类基准测试中,该模型的性能均显著优于其他竞争模型。同时,本文还说明了双卷积神经网络在多方面性能均有体现,既可以构建更准确的模型,又可以以牺牲一定准确性的代价来减少模型的内存占用。
Oct, 2016
本研究提出了一种名为 unitary group convolutions(UGConvs)的 CNN 构建块,它将群卷积和特征空间中的酉变换组合起来,以学习比单独使用群卷积更丰富的表示。我们通过实验表明,密集的酉变换可以提高深度神经网络精度,同时,不同的密集变换具有相当的准确性表现。基于这些观察结果,我们提出了 HadaNet,它是使用 Hadamard 变换的 UGConv 网络,其计算复杂度低于循环卷积网络,且精度比 ShuffleNets 更高。
Nov, 2018
本文提出了一种完全可学习的分组卷积模块 (FLGC),可嵌入到任何深度神经网络中加速处理,其自动学习训练阶段中的组结构,与现有的预定义、两步或迭代策略相比具有更好的结构,并能与深度可分离卷积结合提高性能。
Mar, 2019
本研究旨在探讨 3D 群组卷积网络在视频分类网络中所能提供的计算效益,以及在设计中做出不同选择的影响。实验结果表明,分离通道交互和时空交互是提升网络准确性以及降低计算成本的好策略,3D 通道分离卷积还能够为网络提供一种正则化,我们提出的分离通道卷积神经网络(CSN)成为了一种简单且高效的技术。
Apr, 2019