介绍一种新的动态滤波网络架构,使得学习的滤波器可以根据输入动态生成,具有高度适应性,且不会过多增加模型参数。通过可视化学习到的滤波器,证明该网络可以在无标签数据上学习信息,从而可以用于各种无监督预训练任务,例如光流和深度估计。
May, 2016
通过使用 SkipNet,结合特定输入实现卷积层跳过的目的。我们提出了一个混合学习算法,以解决非可微分跳过决策的问题,并在四个基准数据集上展示了 SkipNet 可以在保留准确性的基础上减少计算量 30-90%。此外,我们定性评估了门控策略,揭示了图像大小和显著性以及跳过层数之间的关系。
Nov, 2017
该研究通过为卷积层添加任务特定的门控模块,并使用稀疏性目标促进对有限内核集的选择,提出了一种解决序列学习问题的新框架,实现了在没有任务标签信息的情况下的持续学习,该模型的准确度明显优于现有方法。
Mar, 2020
本研究介绍了通道门控(channel gating)方法,该方法是动态、细粒度且硬件高效的裁剪方案,能够通过跳过对分类结果没有贡献的输入通道的计算,优化卷积神经网络。实验证明,该方法能够在几乎不损失准确度的情况下,实现浮点运算量减少 2.7-8.0 倍,内存访问减少 2.0-4.4 倍,并结合知识蒸馏可以进一步降低计算成本。我们还设计了一个加速器,能够以 2.4 倍的速度进行量化的 ResNet-18 模型的推理,并实现了 2.8 倍的理论 FLOP 减少。
May, 2018
提出了一种全动态模型的方法,称为 LC-Net,旨在最大化深度卷积神经网络的计算效率和任务准确性,通过以层和卷积滤波通道为单位的层次推理动力学,能够预测冗余层和卷积滤波器 / 通道并学习保留计算结果以实现最大化任务准确性。
Jul, 2020
GFNet 是一个简单而高效的架构,它通过频域中的长期空间依赖性来替换自注意力层,在 ImageNet 和下游任务中表现出有竞争力的准确性 / 复杂性权衡。
Jul, 2021
本文介绍了一种基于图的 CNN 架构,采用节点变化的 GF 代替传统卷积,通过局部操作提取不同的本地特征,以解决在不规则域中信号处理的问题,并在综合实验中进行了测试。
Oct, 2017
通过细粒度分层的对卷积特征进行条件开 / 关设置和匹配预设分布的批量形状代码,我们提出了可训练大容量神经网络的新方法,从而大幅提升准确性而降低动态运算代价,其效果已在 CIFAR-10、ImageNet 和 Cityscapes 等数据集上得以验证。
Jul, 2019
本文的研究成果是基于序列处理的深度注意力选择网络(dasNet),这种 CNN 结构可以利用反馈机制实现动态更改数字滤波器的灵敏度,从而获得更好的分类性能
Jul, 2014
本论文提出了一种动态图消息传递网络,用于进行长程依赖性建模,以用于图像识别。该网络采用自适应抽样节点的方法,在传递信息时动态地预测节点相关过滤器权重和关联矩阵,以实现对自我注意机制的设计。研究结果表明,基于该模型的 Transformer 骨干网络在图像分类和物体检测等四种不同任务上,相对于现有的最先进技术,能够显著提升性能,同时性能优于完全连接的图并使用更少的浮点运算和参数。
Sep, 2022