SwiFT:Swin 4D fMRI Transformer
采用 Swin transformer 以及 multi-channel loss 的方式用于快速 MRI 重建,在进行了多个比较和消融实验以及对多模态脑肿瘤分割的实践后,得出了良好的重建效果。
Jan, 2022
本研究旨在提高计算机视觉中 Transformer 模型的精度和效率,通过在 Swin Transformer 模型中引入可变大小的窗口来实现本地窗口之间的交叉连接,以提高模型准确性和速度。
Jun, 2023
提出了一种名为 Reconstruction Swin Transformer (RST) 的新型架构,用于 4D MRI 重建,该架构继承了视频 Swin Transformer 的骨干设计,并引入了新的重建头部来恢复像素级强度,通过在卡片 4D MR 数据集中的实验结果进一步证实了 RST 的优越性。
Sep, 2023
利用 Swint UNEt TRansformers 模型和多模 MRI 数据对 3D 颅脑肿瘤进行语义分割,可以转换为序列预测问题,以 5 个不同分辨率提取特征,通过跳过连接连接到 FCNN 解码器,并在 BraTS 2021 分割挑战中表现出优越的性能。
Jan, 2022
通过增强 Swin Transformer,我们的模型 SwinFUSE (Swin 多模态融合的无监督增强) 在医学影像领域从不同的影像模态中学习,提升了下游性能,并展现出了对领域变化的适应性以及显著的泛化能力。
May, 2024
本文介绍了一种针对视频领域的区域局部性 Transformer 架构,通过使用 Swin Transformer 设计来实现,同时利用预训练模型的威力,取得了行动识别和时间建模等广泛的视频识别基准的最新准确性。
Jun, 2021
该研究提出了一种基于分层性 Speech Swin-Transformer 的声音情感识别方法,通过分级的窗口聚合多尺度情感特征,将 Transformer 的感知范围从帧级扩展到片段级,实验结果表明该方法优于现有的技术。
Jan, 2024
本文介绍了一种自我监督学习框架,使用适合医学图像分析的代理任务,成功地在各种人体器官的公开可用的 CT 图像上预训练模型,并在医学分割基准数据集上进行了微调,实现了最先进的匹配结果。
Nov, 2021
通过引入一种新的架构,即 B-cos Vision Transformer,以提高可解释性,本文证明了 B-cos Swin Transformer 在医学相关任务中超越了 Vision Transformers,并在两个公共数据集上提高了 F1 分数高达 4.7%。
Jan, 2024
本文提出了一种新的视觉 Transformer,称为 Swin Transformer,它在计算机视觉领域中作为通用骨干具有很强的能力,包括图像分类和目标检测。Swim Transformer 的层次设计和移位窗口方法对于所有多层感知器架构也证明是有益的,并且模型和代码是公开的。
Mar, 2021