本文验证了深度学习在脑成像和神经科学探索中的应用,并探讨了数据转换的参数选择对学习结果的影响。结果表明,深度学习方法能够学习到生理学上重要的表征,并检测神经成像数据中的潜在关系。
Dec, 2013
神经形态学数据的生成预训练变换器模型 Neuroformer 能分析神经数据集及其出现的属性,并推动与大脑相关的模型和假设的发展。
Oct, 2023
通过在大规模自然图像上预训练的 2D 视觉 Transformer 模型,初始化基于 Transformer 的 3D 神经元分割模型,建立了丰富的自然图像与稀有神经元图像之间的知识共享连接,以提高 3D 神经元分割的效能。
May, 2024
本文综述了神经网络模型不同抽象级别的概念、建模方法和最近的研究发现,包括网络模型的概括、分布、域、任务、模式和范围的泛化,着重于在各泛化层次上存在的问题,例如过拟合问题和域适应问题。
Sep, 2022
运用多任务学习方法使深度神经网络对图片失真有着较好的鲁棒性,研究结果表明,从灵长类的视觉皮层中提取归纳偏见,使神经网络更类似于人类视觉系统,提高了其在面对失真问题时的效率。
Jul, 2021
研究介绍了一个简单而彻底评估的深度学习框架,应用于任意医学图像体的分割,同时不需要任务特定的信息和人为干预。该系统基于一个固定的模型拓扑和固定的超参数集,排除了模型选择的过程和方法级别的过拟合。此外,使用多平面数据增强,结合了一个基于常见 U-Net 的 2D 架构,让 2D 模型学习表示 3D 图像体的表示方法,从而提高了泛化性能。
Nov, 2019
使用 Uni-Perceiver 的通用感知架构进行多个任务和多个模态的统一建模和共享参数,在预训练和微调的阶段都表现出了可接受的结果和表现。
Dec, 2021
本文通过加入新神经元到深度神经网络的层中,探索了连续学习的潜力,并通过 MNIST 手写数字数据集和 NIST SD 19 数据集证明了神经发生有助于解决适应性机器学习算法中的稳定性和可塑性两难问题。
Dec, 2016
我们开发了一种工具,通过将大型预训练视觉模型映射到大脑上,从而揭示其隐藏在内部的信息。我们的创新提出了一种令人惊讶的使用大脑编码的方法:预测大脑在图像刺激下的功能磁共振成像测量。我们报告了两个发现:首先,对于空间、层级、尺度和通道的大脑和深度网络特征之间的显式映射至关重要。这种映射方法,FactorTopy,可应用于任何深度网络;通过它,我们可以将网络映射到大脑上(真实可视化)。其次,我们的可视化结果显示了不同的训练方法的重要性:它们导致了层次结构和缩放行为上显著的差异,随着更多的数据或网络容量增加而增长。它还提供了微调的见解:在适应小数据集时,预训练模型如何改变。我们的方法很实用:只需 3000 个图像就足以学习网络到大脑的映射。
Dec, 2023
NeuroNet 是一个基于深度卷积神经网络的脑分割工具,可以训练单个模型以提高各种脑成分的分割能力,并减少处理时间而增加结果的稳定性。
Jun, 2018