用于新一代网络替代 Transformer 的状态空间模型:概述
本研究通过将结构信息整合到在线逼近目标中,采用拉普拉斯正则化项,将状态空间模型理论扩展到时间图,提出了 GraphSSM 框架,用于建模时间图的动态性,实验证明 GraphSSM 在各种时间图基准测试中的有效性。
Jun, 2024
通过对比转换器架构的普遍存在的理论弱点,我们的分析揭示了状态空间模型在状态跟踪方面与转换器非常相似的表达能力的限制,这可能从根本上限制了它们解决现实世界状态跟踪问题的能力。
Apr, 2024
基于状态空间模型的深度神经网络在序列建模中引起了广泛关注,本文从估计序列到序列函数的角度出发,理论探讨了状态空间模型可以替代 Transformers 的任务范围,并证明了状态空间模型能够在特定类别的函数估计中取代 Transformers。
May, 2024
序列建模是跨多个领域的一个关键领域,包括自然语言处理、语音识别、时间序列预测、音乐生成和生物信息学。历史上,循环神经网络(RNNs)和长短时记忆网络(LSTMs)在机器翻译、命名实体识别等序列建模任务中占主导地位,但转换器的进步改变了这一范式,因为其性能更优越。然而,转换器面临 O (N^2) 注意力复杂度和处理归纳偏差的挑战。各种改进方法已被提出来应对这些问题,其中使用频谱网络或卷积在一些任务上表现良好,但仍然难以处理长序列。状态空间模型(SSMs)已经成为此背景下序列建模范式的有希望的可替代选择,特别是随着 S4 及其变种(如 S4nd、Hippo、Hyena、Diagnol State Spaces(DSS)、Gated State Spaces(GSS)、Linear Recurrent Unit(LRU)、Liquid-S4、Mamba 等)的出现。本综述将基于门控结构、结构体系和循环结构对基础 SSMs 进行分类,还重点介绍了 SSMs 在视觉、视频、音频、语音、语言(特别是长序列建模)、医疗(包括基因组学)、化学(如药物设计)、推荐系统和时间序列分析等领域的不同应用。此外,我们总结了 SSMs 在长序列竞技场(LRA)、WikiText、Glue、Pile、ImageNet、Kinetics-400、sstv2 以及早餐、硬币、LVU 等各种时间序列数据集上的性能。有关 Mamba-360 工作的项目页面可在此网页上找到:https://github.com/badripatro/mamba360。
Apr, 2024
近年来,将线性状态空间模型(SSM)整合到深度神经网络架构的基础模型中的兴趣日益增长。该论文对控制理论家介绍了 SSM 基于架构,并总结了最新的研究进展,对最成功的 SSM 提案进行了系统回顾,从控制理论的角度突出了它们的主要特点。此外,我们针对用于评估模型在学习长序列方面效率的标准基准进行了这些模型的性能比较分析。
Mar, 2024
本文提出了一种带有特殊门控机制的多头状态空间(MH-SSM)架构,它可以作为多头注意力在转换器编码器中的替代品,在对于序列数据的处理中能够比转换器转录器更好地优化带来的结果,在 LibriSpeech 语音识别数据集上提高了性能。同时,我们将 MH-SSMs 层与转换器块相结合,成为 Stateformer,且无需使用外部语言模型,在 LibriSpeech 任务中实现了最先进的性能,其开发和测试集上的字错率分别为 1.76%/4.37%和 1.91%/4.36%。
May, 2023
提出了一种名为 Graph State Space Convolution (GSSC) 的方法,该方法是 State Space Models (SSMs) 在图结构数据上的扩展,通过利用全局置换等变集合聚合和以节点之间的相对距离作为卷积核的可分解图卷积核,保留了 SSMs 的三个优点。实验证明 GSSC 在计算图子结构和十个常用基准数据集的表现上比 Message Passing Neural Networks (MPNNs) 更加表达能力强,且在 7 个数据集上取得了最佳结果,在其他 3 个数据集上也有显著提升。该研究结果突出了 GSSC 作为一种强大且可扩展的图机器学习模型的潜力。
Jun, 2024
Transformers 与 state-space models(包括 Mamba)存在相关性,通过结构化半可分矩阵的各种分解,我们开发了一个理论连接的丰富框架,证明了这些模型家族之间的联系。基于我们的 state space duality(SSD)框架,我们设计了一种新的架构(Mamba-2),其核心层是 Mamba 的选择性 SSM 的改进,速度提高了 2-8 倍,同时继续与 Transformers 在语言建模方面竞争。
May, 2024
本文研究了状态空间模型(SSM)的普适性,并提出基于普适性结果改进训练算法的方法。具体地,我们给出了一种依赖数据的 SSM 普适性界限,展示了 SSM 参数与训练序列的时间依赖性之间的相互作用。基于该普适性界限,我们(1)建立了一个基于提出的普适性度量的模型初始化缩放规则,显著提高了 SSM 对序列数据中不同时间模式的输出值尺度的稳健性;(2)引入了一种新的正则化方法来提高 SSM 的普适性性能。通过数值实验验证了我们的结果。
May, 2024
通过引入具有可学习时间尺度参数的状态空间模型(SSM)来处理事件感测器数据,解决了在不同频率下部署模型的挑战,并且与传统 RNN 和 Transformer 模型相比,SSM 模型在事件感测任务中训练速度更快,且在更高频率的测试输入下表现出较小的性能降低。
Feb, 2024