EEGFormer:面向可迁移和可解释的大规模 EEG 基础模型
在多个领域,数据采集和标注的成本和实际应用性限制了监督式学习范式。本文提出了一种使用自监督学习范式从多元时间序列中学习信息表示的方法,并表明该方法没有依赖标签数据就可以超越纯监督式方法在低数据情况下应用于临床相关任务(如睡眠评分)以及两个脑电波数据集,并捕获了重要的生理信息。
Nov, 2019
使用自监督学习技术对无标签的脑电信号数据进行了处理,获得了比使用有标签数据的监督学习深度神经网络更好的效果,并揭示了不同的生理和临床现象之间的潜在结构。
Jul, 2020
本文着眼于通过自我监督学习和适应语言建模技术来发展基于深度神经网络的脑电建模技术,建立起一个单一的预训练模型,用于建模不同硬件、不同受试者和不同任务的全新脑电图序列记录,从而取得较好的脑机接口和脑电分类性能。
Jan, 2021
为应对脑机接口任务中的电脑断层扫描(EEG)数据稀缺和异质性,以及利用大规模的公共数据,我们提出了神经 - GPT,这是一个由 EEG 编码器和 GPT 模型组成的基础模型。该基础模型在大规模的公共 EEG 数据集上进行自监督任务的预训练,学习如何重构 EEG 中的掩码块。然后,我们在仅有 9 个受试者的运动意象分类任务上对基础模型进行微调。实验证明,应用基础模型可以显著提高分类性能,相比从头开始训练的模型,这提供了基础模型先进泛化能力和应对数据稀缺性和异质性挑战的能力的证据。
Nov, 2023
本文提出了一种针对脑电图( EEG)信号的自我监督学习( SSL)框架综述,讨论了典型的 SSL 框架、现有的 EEG-SSL 框架以及 SSL 方法在不同下游任务中的适应性和潜在发展方向。
Jan, 2024
通过深度学习和自我监督学习相结合的训练策略,我们提出了一种基础模型来改善将正常特征推广到临床特征,以实现从创伤性脑损伤后的数据对创伤性癫痫的预测等临床任务,并在神经系统疾病分类任务和零样本学习预测创伤性癫痫的应用中验证了该策略的有效性。
Dec, 2023
提出了一种自监督模型用于 EEG 信号分析,采用基于状态空间的深度学习架构,提供了稳健性能和显著参数效率,同时提出了一种新颖的知识引导的预训练目标,改善了嵌入式表示学习和下游任务的性能。
Feb, 2024
本研究提出了一种基于 GNN 的自监督预训练模型,能够捕捉电极几何或动态脑连接的脑电图图形结构,提高罕见癫痫类型的检测和分类精度。此外,提出了一种定量的模型可解释性方法来评估模型在 EEGs 内定位癫痫的能力。实验证明,GNN 的自监督预训练方法在癫痫检测和分类上都优于以往的方法,能够精确定位约 25.4% 的局部癫痫,可以为临床医生提供直观的癫痫局部化信息。
Apr, 2021
当前的基于脑电图 (EEG) 的深度学习模型通常针对特定的数据集和脑 - 计算机交互 (BCI) 应用而设计,限制了模型的规模,从而降低了其感知能力和泛化能力。最近,大型语言模型 (LLMs) 在文本处理方面取得了前所未有的成功,激发了我们探索大型脑电图模型 (LEMs) 的能力。我们希望通过无监督预训练,LEMs 可以突破 EEG 数据集不同任务类型的限制,并获得对 EEG 信号的通用感知能力,然后将模型进行微调以适应不同的下游任务。然而,与文本数据相比,EEG 数据集的容量通常很小且格式变化多样。为了克服这些挑战,我们提出了一种统一的 EEG 基础模型,称为 Large Brain Model (LaBraM)。LaBraM 通过将 EEG 信号分割为 EEG 通道块来实现跨数据集学习。我们使用量化向量神经谱预测来训练一个语义丰富的神经分词器,将连续的原始 EEG 通道块编码为紧凑的神经代码。然后,我们通过预测遮蔽的 EEG 通道块的原始神经代码来预训练神经 Transformer。我们的 LaBraM 模型在大约 20 个数据集中的各种类型的 EEG 信号上进行了约 2,500 小时的预训练,并在多种不同类型的下游任务上进行了验证。对异常检测、事件类型分类、情绪识别和步态预测的实验表明,我们的 LaBraM 在各自领域的性能优于其他 SOTA 方法。
May, 2024
该研究使用脑电图 (EEG) 信号进行图像重建和分类,通过深度学习的特征提取方法在多个数据集上展示了其在大脑与计算机交互中的可广泛应用性,并提出了一种在 EEG 空间中转换未见图像并进行近似重建的新框架,显示出优于生成对抗网络现有性能的潜力。
Oct, 2023