Brant-2:脑信号基础模型
通过整合来自 41400 名参与者的 MRI 数据集,利用视觉转换器进行两阶段预训练方法,该研究引入了一种新颖的方法来创建医学基础模型,并通过 MRI 在复杂的神经影像任务中提高了模型的准确性和预测能力。
Jun, 2024
为应对脑机接口任务中的电脑断层扫描(EEG)数据稀缺和异质性,以及利用大规模的公共数据,我们提出了神经 - GPT,这是一个由 EEG 编码器和 GPT 模型组成的基础模型。该基础模型在大规模的公共 EEG 数据集上进行自监督任务的预训练,学习如何重构 EEG 中的掩码块。然后,我们在仅有 9 个受试者的运动意象分类任务上对基础模型进行微调。实验证明,应用基础模型可以显著提高分类性能,相比从头开始训练的模型,这提供了基础模型先进泛化能力和应对数据稀缺性和异质性挑战的能力的证据。
Nov, 2023
当前的基于脑电图 (EEG) 的深度学习模型通常针对特定的数据集和脑 - 计算机交互 (BCI) 应用而设计,限制了模型的规模,从而降低了其感知能力和泛化能力。最近,大型语言模型 (LLMs) 在文本处理方面取得了前所未有的成功,激发了我们探索大型脑电图模型 (LEMs) 的能力。我们希望通过无监督预训练,LEMs 可以突破 EEG 数据集不同任务类型的限制,并获得对 EEG 信号的通用感知能力,然后将模型进行微调以适应不同的下游任务。然而,与文本数据相比,EEG 数据集的容量通常很小且格式变化多样。为了克服这些挑战,我们提出了一种统一的 EEG 基础模型,称为 Large Brain Model (LaBraM)。LaBraM 通过将 EEG 信号分割为 EEG 通道块来实现跨数据集学习。我们使用量化向量神经谱预测来训练一个语义丰富的神经分词器,将连续的原始 EEG 通道块编码为紧凑的神经代码。然后,我们通过预测遮蔽的 EEG 通道块的原始神经代码来预训练神经 Transformer。我们的 LaBraM 模型在大约 20 个数据集中的各种类型的 EEG 信号上进行了约 2,500 小时的预训练,并在多种不同类型的下游任务上进行了验证。对异常检测、事件类型分类、情绪识别和步态预测的实验表明,我们的 LaBraM 在各自领域的性能优于其他 SOTA 方法。
May, 2024
使用深度学习技术,以大量未标记数据预训练模型,并在特定任务上进行微调,对大脑信号进行建模比常规线性自回归模型具有更好的建模能力,其中 GPT2 模型在时间、空间和频谱特征方面更好地重现了实际数据和任务数据的诱发活动。
Apr, 2024
本研究针对遥感任务的基础模型研究进行了探讨,提出了一种包括六项分类任务和六项分割任务的基准测试以及可靠的评估方法,并报告了二十种基线模型的结果,旨在推动地球监测领域的模型进展。
Jun, 2023
本文通过利用多个领域的无标签样本,旨在开发一种有效的时间序列基础模型。实验结果表明,与其他方法相比,该提出的预训练方法结合 Transformer 模型在下游分类任务中具有更好的性能。
Oct, 2023
基于深度学习的 Prithvi 地球观测模型通过高效前期训练和微调,成功实现地球观测领域多个任务的优化,证明了预训练模型在加速微调过程以及在性能上优于随机初始化权重的作用,并表明可显著减少可用标注数据的数量而不影响模型准确性。
Oct, 2023
本文提出了一种基于 Transformer 的深度学习网络,名为 BrainNPT,用于脑功能网络分类,并探讨了使用未标记数据进行预训练的方法,结果表明使用预训练的 BrainNPT 模型可以显著提高分类表现。
May, 2023
我们建立了语音处理通用性能基准(SUPERB),使用冻结的基础模型和任务专门化的轻量级预测头,证实了基础模型范式在语音处理中的潜力和我们的多任务框架的简单而有效性,具备竞争力的泛化能力。我们还进行了一系列分析,深入了解 SUPERB 和语音基准模型,包括模型内任务之间的信息流动,加权求和基准测试协议的正确性以及基准测试的统计显著性和稳健性。
Apr, 2024