ArEEG_Chars: 使用脑电图进行阿拉伯文字的设想式语音识别的数据集
使用预训练语言模型对无创脑机接口(BCI)通过脑电图(EEG)信号进行解码的潜力进行了研究,提出了一个具有先进表示学习方法的无创脑电记录的端到端深度学习框架,并使用新的评估指标验证了该框架在解码效果方面的优越性。
Nov, 2023
提出了一种基于深度神经网络的 MI-EEG 分类方法,采用联合卷积循环神经网络同时学习低维稠密嵌入的强鲁棒高级特征,消除多种伪迹。实验证明,该方法在 MI-EEG 数据集上的分类精度达到了 95.53%,并应用于具体的 BCI 系统中,实现了打字操作。
Sep, 2017
通过使用 EEG2TEXT 方法,借助 EEG 预训练和多视图变压器,能够从脑电图信号中提取更准确的开放词汇解码,并在绝对 BLEU 和 ROUGE 得分上超过现有基线方法高达 5%,显示出高性能开放词汇脑机接口与文本系统用于促进交流的巨大潜力。
May, 2024
本文介绍了一种对开放词汇的象限脑电图 (EEG)- 到 - 文本序列到序列解码和零样本句子情感分类的方法,并借助预训练语言模型 (例如 BART) 建立一个新的框架,该模型能够处理来自不同受试者和来源的数据,并证明了该模型可以一旦足够的数据可用,有望成为高性能的开放词汇脑到文本系统。
Dec, 2021
当前的基于脑电图 (EEG) 的深度学习模型通常针对特定的数据集和脑 - 计算机交互 (BCI) 应用而设计,限制了模型的规模,从而降低了其感知能力和泛化能力。最近,大型语言模型 (LLMs) 在文本处理方面取得了前所未有的成功,激发了我们探索大型脑电图模型 (LEMs) 的能力。我们希望通过无监督预训练,LEMs 可以突破 EEG 数据集不同任务类型的限制,并获得对 EEG 信号的通用感知能力,然后将模型进行微调以适应不同的下游任务。然而,与文本数据相比,EEG 数据集的容量通常很小且格式变化多样。为了克服这些挑战,我们提出了一种统一的 EEG 基础模型,称为 Large Brain Model (LaBraM)。LaBraM 通过将 EEG 信号分割为 EEG 通道块来实现跨数据集学习。我们使用量化向量神经谱预测来训练一个语义丰富的神经分词器,将连续的原始 EEG 通道块编码为紧凑的神经代码。然后,我们通过预测遮蔽的 EEG 通道块的原始神经代码来预训练神经 Transformer。我们的 LaBraM 模型在大约 20 个数据集中的各种类型的 EEG 信号上进行了约 2,500 小时的预训练,并在多种不同类型的下游任务上进行了验证。对异常检测、事件类型分类、情绪识别和步态预测的实验表明,我们的 LaBraM 在各自领域的性能优于其他 SOTA 方法。
May, 2024
本文针对脑电信号对自然语言处理的潜力进行了大规模研究,利用多模态机器学习体系结构,发现滤波后的脑电信号对情感分析任务的性能提升最为明显,特别是在训练数据有限的情况下。
Feb, 2021
这篇论文提出了一个自动化的计算机平台,该平台使用先进的特征提取技术和机器学习算法对左右手运动相关的脑电信号进行分类,并使用两种不同的机器学习算法,神经网络和支持向量机,最终取得了分别为 89.8 和 97.1 的最佳分类性能。
Dec, 2013
本文考虑使用 EEG 信号来实现想象中说出的话的识别,并对不同频带和大脑不同区域的信号进行分析,使用包含卷积神经网络(CNN)和长短时记忆网络(LSTM)的时空深度学习架构,在数字、字符和图像三个分类任务中获得了较高的分类准确性,其代码已在网站上公开。
Mar, 2022
该研究探讨了通过脑电图记录未受影响手臂的活动,以学习个体化机器学习模型来支持患者康复,结果表明预测运动的分类器在选定的受双边运动意图诱发的脑电图通道上训练时与全面训练脑电图数据的分类器在单边运动意图上的表现差异不显著。这一方法可在实际治疗中使用,与几个脑电图通道的数据训练有效,对于中风患者的进一步研究具有潜力。
Feb, 2024
本文提出了级联和并行卷积循环神经网络,以有效学习 EEG 数据流的组合时空表示。通过转换 EEG 数据流,将其转换成 2D 网格结构以及使用 LSTM 循环神经网络来提取 EEG 数据流的微妙时序依赖性。在大规模 MI-EEG 数据集上进行了广泛的实验,证明了该方法在准确性方面具有高达 98.3%的优越性,相对于基线方法和大多数最新的深度学习 EEG 识别模型,有着 18%的准确率提升。
Aug, 2017