一种用于分割前庭神经瘤和耳蜗的三维多样式跨模态分割框架
本研究提出一种多视角图像翻译框架,通过使用像素级一致性约束和补丁级对比约束的两个图像转换模型,将增强对比度的 T1MRI 图像翻译成高分辨率 T2MRI 图像,为无监督前庭神经鞘瘤和耳蜗分割提供伪高分辨率的 T2MRI 图像,并通过实验证明该方法在前庭神经鞘瘤和耳蜗分割方面具有出色的性能表现。
Mar, 2023
提出了一种基于多尺度自组装的无监督领域自适应 (UDA) 框架,用于高分辨率 T2 影像上的自动分割 Vestibular Schwannoma (VS) 和 Cochlea。该方法结合了对比无对应图像翻译,多尺度深度监督和一致性规范化,自我训练和强化强化等技术,证明其在跨模态分割性能上具有很大的应用价值。
Mar, 2023
引入细粒度无监督框架以实现跨模态的前庭神经硬膜瘤和耳蜗分割,通过使用向量控制生成器并应用多样增强技术来提高分割模型的性能和鲁棒性。在 CrossMoDA 验证阶段排行榜上,我们的方法分别在前庭神经硬膜瘤和耳蜗上得到了 0.765 和 0.836 的平均 Dice 得分。
Nov, 2023
介绍了一种应用于 vestibular schwannoma MRI 图像的 2.5D 卷积神经网络,该网络利用了所应用成像协议中不同的平面分辨率,使其精度和鲁棒性得到提升,并通过引入注意力机制以及权重逐渐递增的 Dice 损失函数对其进行了优化。实验表明,该方法能有效提高分割精度,为患者管理提供了重要参考。
Jun, 2019
本文介绍了一种用于肿瘤分割的新型深度学习方法,该方法使用了基于图像转换和 Segementation 的迭代自训练算法以及一种名为 GBA(Generative Blending Augmentation)的数据增强技术,使用 SinGAN 生成模型来使目标肿瘤出现得更加真实,从而提高了分割模型的泛化能力,并在 MICCAI CrossMoDA 2022 演示中的肿瘤分割任务中名列前茅。
Apr, 2023
我们提出了一种名为 MoDATTS 的新的半监督训练策略,用于处理自动医学图像分割中存在的模态遗传性问题,并通过图像转换和视觉转换器实现更准确的肿瘤分割。该模型在 CrossMoDA 2022 挑战中表现出优越的性能,并在 BraTS 2020 挑战数据集上显示出一致的改进。
Sep, 2023
在肿瘤学研究中,准确的 CT 扫描病灶 3D 分割对于病灶生长动力学的建模至关重要。然而,根据 RECIST 准则,放射科医生通常仅在显示最大横截面面积的轴位切片上勾画每个病灶,并在研究目的上勾画少量的 3D 病灶。因此,我们有大量未标记的 3D 体积和带标签的 2D 图像,以及稀缺的标记的 3D 体积,这使得训练深度学习 3D 分割模型成为一项具有挑战性的任务。本研究提出了一种新模型,称为多维统一的 Swin Transformer (MDU-ST),用于 3D 病灶分割。MDU-ST 由一个偏移窗口变换器 (Swin-transformer) 编码器和一个卷积神经网络 (CNN) 解码器组成,使其能够适应 2D 和 3D 输入,并在同一编码器中学习相应的语义信息。基于该模型,我们引入了一个三阶段框架:1) 通过自我监督的先验任务利用大量未标记的 3D 病灶体积来学习 Swin-transformer 编码器中病灶解剖学的潜在模式;2) 对 Swin-transformer 编码器进行微调,以使用 2D RECIST 切片执行 2D 病灶分割,学习切片级分割信息;3) 进一步对 Swin-transformer 编码器进行微调,以使用带标签的 3D 体积执行 3D 病灶分割。该网络的性能通过 Dice 相似系数 (DSC) 和 Hausdorff 距离 (HD) 在一个内部的 3D 病灶数据集上进行评估,其中包含来自多个解剖位置的 593 个病灶。所提出的 MDU-ST 相比竞争模型表现出显著改进。该方法可用于进行自动化的 3D 病灶分割以辅助放射组学和肿瘤生长建模研究。本论文已被 IEEE 国际生物医学成像研讨会 (ISBI) 2023 接受。
Sep, 2023
提出了一个能够在 MRI 扫描中进行多器官分割的深度学习模型,通过解决 MRI 分析中分辨率、标准化强度值和序列可变性的挑战,为当前的 MRI 分析限制提供了解决方案。
May, 2024
本文提出一种名为 CMEDL 的交叉模态教育深度学习分割方法,通过利用低辐射剂量的计算机体层扫描图像,结合核磁共振成像技术中的软组织成像信息,用神经网络进行训练与分割,有效提高其肺肿瘤数据分割的准确性。
Sep, 2019
通过使用单一的条件模型,根据输入类型调整其归一化层来实现多模态图像的公平图像分割,并在多模态全心分割挑战中优于其他跨模态分割方法。
Oct, 2023