Apr, 2024

将预训练的 ViTs 与 TCNet 融合以增强脑电回归

TL;DR通过将预训练的视觉 Transformer(ViTs)与时域卷积网络(TCNet)相结合,以增强 EEG 回归的精度,本研究揭示了 ViTs 序列数据处理能力和 TCNet 优越的特征提取能力的核心,用于提高 EEG 分析精度,并分析了如何构建用于注意力机制的最佳块,以平衡计算速度和准确性的关系。研究结果表明,在 EEGEyeNet 的绝对位置任务中,均方根误差(RMSE)从 55.4 降至 51.8,超过了现有的最新模型,而不牺牲性能的同时,将模型的速度提高了一个数量级(高达 4.32 倍)。这一突破不仅在 EEG 回归分析中设立了新的基准,而且为将变换器结构与专门的特征提取方法用于多样化的 EEG 数据集开辟了新的研究方向。