KDDAug, 2023

ViT2EEG: 基于混合预训练视觉 Transformer 的 EEG 数据利用

TL;DR本研究展示了在脑电图(EEG)回归任务上,以 ImageNet 为预训练数据的混合 Vision Transformer(ViT)模型的应用。通过与其他模型进行比较,包括没有 ImageNet 权重的相同结构 ViT 模型,在 EEG 数据上微调后,该模型表现出显著的性能提升。这一发现挑战了对模型泛化的传统理解,表明在合适的微调流程下,预先训练在看似无关的图像数据上的 Transformer 模型可以为 EEG 回归任务提供有价值的先验知识。这种方法的成功暗示了 ViT 模型在视觉任务环境中提取的特征可以轻松地转化为 EEG 预测建模的目的。我们建议不仅在神经科学和相关领域,而且在任何由实际、财务或伦理限制所限制的任务中采用这种方法。我们的结果揭示了预训练模型在与其原始目的明显不同的任务上的潜力。