基于 Transformer 的脑电解码空时特征学习
本文提出了一种基于 transformer-based 网络的新型框架,用于从 EEG 信号中获取注意状态,进一步优化了特征提取方法和频带。该网络已在两个公共数据集上进行了训练和验证,并取得了比现有模型更高的效果,可应用于实际情况下,如评估注意力缺陷多动障碍 (ADHD) 症状或驾驶评估中的警觉度。
Apr, 2022
通过对脑电数据进行空间注意力调控和信道协调,探讨了在不同电极脑电数据下使用深度学习模型的性别分类任务,并以实验证明使用不同电极脑电数据进行训练的深度学习模型在性别分类中显著优于使用固定 23 通道和 128 通道数据的模型。
Oct, 2023
本文提出了一种混合深度神经网络策略,将卷积神经网络和递归神经网络并行组合,级联自编码器和全连接层,以自动识别 EEG 中的想象语音,并演示了相对于基线方法约 23.45%的准确度改进,展示了混合 DNN 方法在复杂时空分类问题上的潜力。
Apr, 2019
基于 Transformer 的 ESTformer 框架应用于脑电超分辨率(SR)任务,利用时空依赖关系学习空间结构信息和时间功能变化,并通过 Spatial Interpolation Module(SIM)和 Temporal Reconstruction Module(TRM)捕捉建模脑电 SR 的时空依赖性。实验证明 ESTformer 在两个脑电数据集上的有效性,并证明了 SR 数据相对于 LR 数据在脑电相关的个人识别和情绪识别任务中的优越性,展示了 Transformer 在脑电超分辨率任务中的多功能性。
Dec, 2023
我们引入了一个深度神经网络用于情感分类,通过混合的时空编码和循环注意网络块获取可解释的生理学表示,并应用图信号处理工具对原始数据进行预处理以在空间域中进行图平滑。我们证明了我们的架构在公开可用的 DEAP 数据集上超过了最先进的情感分类结果,并通过转移学习的方式在 DREAMER 和情感英语词(EEWD)数据集上提高了情感分类准确性。
Jul, 2023
本文通过研究 ConvNets 在 EEG 信号解码中的表现,发现其通过一系列层次逐渐学会了如何识别 EEG 信号的不同特征,其中后期的卷积层可以识别 EEG 信号的复杂特征,这为理解 EEG 时间序列的组合结构提供了洞见。
Nov, 2017
基于脑电信号的运动想象分类的研究提出了一种新的方法,利用坐标转换的 t-SNE 生成二维图像来表示拓扑地图,利用 InternImage 提取空间特征,利用 PoolFormer 启发的时空汇聚来利用序列的脑电图像中隐藏的时空信息,通过实验表明该方法在跨个体验证中二、三、四类运动想象任务中均取得了最佳的分类精度,分别达到了 88.57%、80.65% 和 70.17%。
Mar, 2024
本文提出了一种融合了 Transformer 和 CNN 的端到端神经网络癫痫检测模型 EENED,在其 Transformer 编码器中引入卷积模块,从而结合了 Transformer 模型全局依赖捕捉和 CNN 模型局部特征捕捉的优势,能够准确可靠地检测癫痫疾病。
May, 2023
通过将 Hierarchical Coarse-to-Fine Transformer (HCT) 和 Dense Information Purification (DIP) 模块结合进 CNN-Transformer,我们提出了 EEG-Deformer 算法,有效地学习了脑电图(EEG)信号中的时间动态,进而解码脑活动,实验证明它在三个认知任务上要么优于现有的最先进方法,要么与其相媲美。
Apr, 2024
本篇论文探讨了 Transformer 网络用于分类清洗和预处理后的脑电图(EEG)数据的有效性和性能,结果表明,基于 Transformer 的深度学习模型可以成功地消除对 EEG 数据特征提取的需求,实现了脑电图数据的高效分类。
Feb, 2022