我们提出了一种通用脑编码器,能够联合训练来自多个不同主体 / 数据集 / 机器的数据,通过直接计算脑体素嵌入和多级深度图像特征之间的交叉注意力来预测每个脑体素对每个图像的响应,并且利用学习到的体素嵌入作为探索脑功能的强大工具。
Jun, 2024
我们开发了一种工具,通过将大型预训练视觉模型映射到大脑上,从而揭示其隐藏在内部的信息。我们的创新提出了一种令人惊讶的使用大脑编码的方法:预测大脑在图像刺激下的功能磁共振成像测量。我们报告了两个发现:首先,对于空间、层级、尺度和通道的大脑和深度网络特征之间的显式映射至关重要。这种映射方法,FactorTopy,可应用于任何深度网络;通过它,我们可以将网络映射到大脑上(真实可视化)。其次,我们的可视化结果显示了不同的训练方法的重要性:它们导致了层次结构和缩放行为上显著的差异,随着更多的数据或网络容量增加而增长。它还提供了微调的见解:在适应小数据集时,预训练模型如何改变。我们的方法很实用:只需 3000 个图像就足以学习网络到大脑的映射。
Dec, 2023
通过将 10 种常用语言模型进行集成,我们的研究在所有感兴趣区域上比当前基准结果提高了平均 10% 的性能。
Oct, 2023
本研究旨在探究多模态变形器提供的洞察能力,通过对多模态编码模型进行训练,发现多模态变形器学习了语言和视觉中概念表示的更多对齐性,并且可以有效预测大脑对于故事和电影的 fMRI 反应,从而揭示了多模态处理的潜力和相关的概念表示模型的比较。
May, 2023
研究通过功能性磁共振成像对大脑的记录,分析了编码模型和解码模型的应用,尤其关注深度学习算法的效果、好处和限制,并总结了神经科学数据集的代表性研究。
Jul, 2023
通过优化解码方法,将重构结果与脑活动一致性结合,通过迭代优化小样本图像库,我们证明了脑优化推理在改善重构质量和探索视觉脑区不同表征多样性方面的潜力。
我们利用预训练模型,探索机器学习架构来预测大规模预训练模型生成的图像对大脑的响应,通过使用单个连接的线性层加上由 CLIP 生成的图像嵌入作为输入,在 Algonauts 挑战赛上取得了相对较好的结果,但未能建立与数据的强有力关联。
Sep, 2023
本文系统探讨了图像转换器和多模态转换器在大脑编码方面的有效性,发现多模态转换器 VisualBERT 在编码上远优于之前提出的单模态 CNN、图像转换器以及其他先前提出的多模态模型,这表明视觉语言模型的优越性,产生了人们是否在被动地查看图像时,视觉区域的响应是否受到语言处理的影响的问题。
Apr, 2022
我们通过将与记忆相关的信息作为输入来探索一种新的脑编码模型。在视觉 - 记忆认知任务中,我们发现非视觉脑部在很大程度上可以通过先前看到的图像进行准确预测。我们的记忆编码模型(Mem)在 Algonauts 2023 视觉脑竞赛中获胜,即使没有模型集成(单一模型得分 66.8,集成得分 70.8)。我们的没有记忆输入的集成模型(61.4)也获得了第三名。此外,我们观察到周期性延迟的脑响应与第 6-7 个先前图像相关,并且海马体的活动也与这种周期性保持一致。我们推测周期性重放可能与增强工作记忆的记忆机制有关。
Aug, 2023
研究表明,使用卷积神经网络 (CNN) 驱动的图像识别技术不仅能在下流视觉区域说明大脑对静态图片的反应,还能可靠地预测和解码人类观看自然电影时的功能性磁共振成像数据,并通过缺少有关时间动态或反馈处理机制的 CNN-Predicted areas 覆盖了包括腹侧流和背侧流在内的大部分视觉和语义空间。
Aug, 2016