Simba: Mamba 增强的 U-ShiftGCN 用于视频中的动作识别
本研究介绍了 Graph-Mamba,通过将 Mamba block 与依赖于输入的节点选择机制进行整合,增强了图网络中的长程上下文建模,从而显著提高了预测性能。通过对十个基准数据集的广泛实验,证明 Graph-Mamba 在长程图预测任务中胜过最先进的方法,且在 FLOPs 和 GPU 内存消耗方面计算成本只占一小部分。
Feb, 2024
提出了一种简单高效的运动生成模型,利用了状态空间模型进行建模,并通过分层时序 Mamba (HTM) 块和双向空间 Mamba (BSM) 块来处理时序和姿态信息,从而实现了高质量、长序列的运动生成和实时人体动作生成。
Mar, 2024
基于 Transformer 架构的基础模型凭借其核心注意力模块,驱动着深度学习中大部分令人兴奋的应用。我们发现这种模型的一个关键弱点是其无法进行内容导向的推理,并对此进行了改进,通过让结构状态空间模型(SSMs)参数成为输入的函数来解决离散模态的弱点,该模型在长度可选的维度上选择性地传播或遗忘信息,并且通过在递归模式下设计一种硬件感知并行算法,将这些选择性 SSMs 集成到简化的端到端神经网络架构中。该模型(Mamba)具有快速推断速度(比 Transformers 快 5 倍)和序列长度的线性扩展,并在实际数据上对长达百万长度的序列显示出改进。作为一种基于通用序列模型的支持,Mamba 在语言、音频和基因组等多个模态上实现了最先进的性能。在语言建模中,我们的 Mamba-3B 模型在预训练和下游评估中均优于同样大小的 Transformers,与其两倍大小的模型性能相当。
Dec, 2023
本研究通过广泛实验评估不同模型角色的 Mamba 对视频理解的潜力,探索其在视频理解领域的替代性,发现 Mamba 在仅视频和视频语言任务上展现出强大的潜力,并显示了有希望的效率 - 性能平衡,为未来的视频理解研究提供了宝贵的数据和见解。
Mar, 2024
研究了基于骨架动作识别中如何提取骨架联结的区分特征所面临的问题,提出了一种基于图卷积网络的高效的 GCN 基线。通过提出的复合扩展策略,在 NTU RGB+D 60 和 120 数据集上,其 EfficientGCN-B4 基线性能超越其他 SOTA 模型,且模型规模更小、训练速度更快。
Jun, 2021
重建退化图像的关键任务在图像处理中非常重要,我们引入了基于通道感知的 U 形曼巴模型,它融合了双状态空间模型(SSM)框架与 U-Net 架构,通过引入空间 SSM 模块和通道 SSM 组件,它能够线性计算的复杂度相对于特征图大小进行全局上下文编码和保留通道相关特征,从而在图像恢复方面优于现有的最先进方法,凸显了整合空间和通道上下文的重要性。
Apr, 2024
通过借鉴最近的状态空间模型在长序列建模方面的潜力,我们引入了基于 SSM(状态空间模型)的架构 Mamba 到点云领域,并提出了 Mamba24/8D,它在线性复杂度下具有强大的全局建模能力。该架构在多个 3D 点云分割任务上取得了最先进的结果,并通过大量实验证实了其有效性。
Jun, 2024
应用 Mamba 到多类无监督异常检测,提出了包含预训练编码器和 Mamba 解码器的 MambaAD,通过在多个尺度上引入局部增强状态空间模块 (LSS),该方法在六个不同的异常检测数据集上展示了具有 SoTA 性能的结果,证实了其有效性。
Apr, 2024
提出了一种新的体系结构 SiMBA,通过特定特征值计算引入 Einstein FFT(EinFFT)用于通道建模,使用 Mamba 块进行序列建模,通过对图像和时间序列基准的广泛性能研究证明 SiMBA 在性能上优于现有的 SSMs,缩小与现有的 transformers 的性能差距。
Mar, 2024
该研究综述了 Mamba 模型在计算机视觉领域的基本概念和优化方法,并介绍了它们在不同层次的视觉任务中的广泛应用,旨在引起学术界对当前挑战的关注并进一步应用 Mamba 模型于计算机视觉。
Apr, 2024