我们提出了 DVMSR,一种结合了 Vision Mamba 和蒸馏策略的新型轻量级图像超分辨率网络,通过最小化计算复杂度和网络参数来加速超分辨率网络推理,并在保持性能的同时实现了效率改进。
May, 2024
提出了一种用于处理大规模远程感知图像超分辨率的频率辅助 Mamba 框架,通过多级融合结构和可学习的缩放适配器实现了准确的特征融合,相比于现有方法具有更高的峰值信噪比和更低的内存消耗和计算复杂度。
我们提出了 VmambaIR,这是一种综合图像恢复任务的方法,它将线性复杂度的状态空间模型引入其中,通过有效地建模图像信息在各个方向上的流动来克服了状态空间模型的单向建模限制,并在图像去雨、单幅图像超分辨率和实际图像超分辨率等多个图像恢复任务上取得了最先进的性能。
Mar, 2024
本文研究使用胶囊网络进行单张图像超分辨率处理,在实验中发现胶囊网络相比传统卷积方式需要较少的层数却能达到较好的效果,证明了将胶囊网络应用于图像超分辨率问题是值得尝试的。
Oct, 2022
通过应用大感受野,我们提出了一种称为 Symmetric Visual Attention Network (SVAN) 的方法来改进高效超分辨率重建,减少了算法参数的数量并提高了模型的感知能力。实验结果表明,我们的方法只使用了现有 SOTA 方法约 30% 的参数,却能获得高质量的超分辨率重建结果。
Jan, 2024
本文提出了一种新的通用计算机视觉基础模型 Vim,该模型采用双向状态空间模型对图像序列进行标记并压缩视觉表示,并在 ImageNet 分类、COCO 目标检测和 ADE20k 语义分割任务中取得了比 DeiT 等常见视觉转换器更高的性能,同时具有显著提高的计算和内存效率。
通过分析多次扫描策略在多尺度视觉任务中的成功原因,本研究介绍了 Multi-Scale Vision Mamba(MSVMamba)模型,采用多尺度二维扫描技术并整合了卷积前馈网络(ConvFFN),在有限参数下保留了 State Space Models(SSMs)在视觉任务中的卓越性能。
本文提出了一种基于注意力机制的两阶段深度卷积神经网络,可以在从粗到细的方式下进行超分辨率图像重建,并通过使用多层上下文关联特征的多层上下文注意力块和利用高分辨率空间中的有用线索来重建高分辨率图像的重要细化关注块,以提高超分辨率性能并获得良好的视觉效果
Apr, 2021
该研究综述了 Mamba 模型在计算机视觉领域的基本概念和优化方法,并介绍了它们在不同层次的视觉任务中的广泛应用,旨在引起学术界对当前挑战的关注并进一步应用 Mamba 模型于计算机视觉。
Apr, 2024
通过引入 Residual State Space Block 作为核心组件,该研究提出了一种名为 MambaIR 的简单而强大的基准模型,利用卷积和通道注意力增强了 vanilla Mamba 的能力,从而利用局部补丁的重复特性和通道交互产生特定于恢复的特征表示。广泛的实验证明了我们方法的优越性,例如,MambaIR 在类似计算成本但具有全局感受野的情况下,比基于 Transformer 的基准模型 SwinIR 提高了 0.36dB。
Feb, 2024