自我学习对脑解码的益处
开发一组神经科学启发的自监督目标和神经架构,用于从异构和无标记神经记录中进行表征学习,实验证明这些目标学习到的表征能够普遍适用于不同的被试者、数据集和任务,并比仅使用有标记数据时更快地学习;此外,为两个基础性语音解码任务设置了新的基准,这些方法现在可以利用数量级更多的现有数据来训练语音解码模型。
Jun, 2024
本文提出了一种新颖的方法,利用 Encoder-Decoder 和 Decoder-Encoder 网络结构,通过有标签数据和未标签的数据来训练 fMRI 到图片的重建网络,其中自监督机制使得网络可以适应统计数据的缺乏和输入数据的变化
Jul, 2019
介绍了一个两阶段的 fMRI 表示学习框架,通过在预处理阶段使用 Double-contrastive Mask Auto-encoder 降噪,并在第二阶段利用图像自动编码器的指导来调整特征学习者,以关注对于视觉重建最有信息的神经激活模式。使用这种优化后的 fMRI 特征学习者条件下的潜在扩散模型重构图像刺激,实验结果证明该模型在生成高分辨率和语义准确的图像方面的优越性,50 种不同目标的情境下,top-1 语义分类的准确率比先前最先进的方法提高了 39.34%。
May, 2023
研究通过功能性磁共振成像对大脑的记录,分析了编码模型和解码模型的应用,尤其关注深度学习算法的效果、好处和限制,并总结了神经科学数据集的代表性研究。
Jul, 2023
我们开发了一种工具,通过将大型预训练视觉模型映射到大脑上,从而揭示其隐藏在内部的信息。我们的创新提出了一种令人惊讶的使用大脑编码的方法:预测大脑在图像刺激下的功能磁共振成像测量。我们报告了两个发现:首先,对于空间、层级、尺度和通道的大脑和深度网络特征之间的显式映射至关重要。这种映射方法,FactorTopy,可应用于任何深度网络;通过它,我们可以将网络映射到大脑上(真实可视化)。其次,我们的可视化结果显示了不同的训练方法的重要性:它们导致了层次结构和缩放行为上显著的差异,随着更多的数据或网络容量增加而增长。它还提供了微调的见解:在适应小数据集时,预训练模型如何改变。我们的方法很实用:只需 3000 个图像就足以学习网络到大脑的映射。
Dec, 2023
本文介绍了一种自监督预训练框架,用于基于功能性磁共振(fMRI)数据的变压器。作者在两种自监督任务上预训练模型,以教授模型人类听觉皮层在音乐听取期间的时间和空间动态。作者的预训练结果表明,多任务训练对 fMRI 数据具有协同效应。作者在监督 fMRI 分类任务上发现,微调预先训练的模型和训练额外的新模型都能够显著提高准确性,证明了预训练任务促进迁移学习的能力。
May, 2023
本文着眼于通过自我监督学习和适应语言建模技术来发展基于深度神经网络的脑电建模技术,建立起一个单一的预训练模型,用于建模不同硬件、不同受试者和不同任务的全新脑电图序列记录,从而取得较好的脑机接口和脑电分类性能。
Jan, 2021
通过优化解码方法,将重构结果与脑活动一致性结合,通过迭代优化小样本图像库,我们证明了脑优化推理在改善重构质量和探索视觉脑区不同表征多样性方面的潜力。
Dec, 2023
本论文针对语音识别的问题,提出自我监督学习可能是解决这一问题的一个更好的选择,核心是自己生成特征,通过自我监督可以获得和人脑工作方式类似的神经网络模型,帮助理解语言习得和人脑在语音处理方面的机理。
Jun, 2022
通过利用神经放射学报告中丰富的信息,我们提出了一个自监督的文字 - 视觉框架,通过对脑部 MRI 扫描进行无监督学习,检测临床相关的异常,为自动分类、自动分级等应用提供支持。
May, 2024