AnatoMix:面向多器官分割的解剖感知数据增强
本文提出了一个新的基于模型适应和模型融合的双阶段方法,该方法利用现成的单器官分割模型来开发适用于目标数据集的多器官分割模型,从而消除了多器官分割中对有标注数据依赖的问题。实验结果表明,此方法可以有效地利用现成的单器官分割模型来获得高准确度的多器官分割模型。
Apr, 2023
本文提出了两种数据增强方法:KeepMask 和 KeepMix,用于医学图像分割的深度学习,可以更好地识别器官边界,实现更高精度的分割,并在 CHAOS 数据集和 MSD 脾数据集上分别比基线方法提高了 3.04%和 5.25%的 Dice 系数。
Apr, 2023
使用器官注意力网络,结合反向连接,以 2D 视图特征分割 3D CT 体积中的腹部器官。统计融合不同方向上的 2D 视图,实现准确和鲁棒的分割结果。
Apr, 2018
LesionMix 是一种新颖而简单的病变感知数据增强方法,在病变层面上进行增强,增加病变的形状、位置、强度和负载分布的多样性,并允许进行病变填充和修复,在多种模态和病变数据集上表现出有希望的病变图像分割性能,优于几种最近的基于混合的数据增强方法。
Aug, 2023
利用 CT 标签地图生成合成图像,应用于腹部器官分割的 U-Net 网络训练,在 Dice 分数方面与在 MR 数据上训练的完全监督分割方法相比表现出类似的结果。
Mar, 2024
该研究提出了一种自动化数据增强方法,用于合成标记的医学图像,该方法可用于磁共振成像(MRI)的脑部扫描分割任务。该方法利用半监督方法,从未标注的扫描中学习图像变换模型,并使用标记示例合成其他标记示例。实验证明使用这些新示例进行监督分段器训练相比目前的一次性生物医学图像分割方法,有明显的改进。
Feb, 2019
通过扩充小规模或不平衡数据集来生成高质量的影像,本研究提出了一种扩散模型来实现解剖结构控制的医学影像生成,有别于现有模型,该模型在每个采样步骤中遵循多类解剖学分割掩模,并采用随机掩模消融算法来实现对所选解剖约束的条件控制。在乳腺磁共振成像和腹部 / 颈至骨盆 CT 数据集上进行比较评估,验证了本模型对于解剖结构真实性和掩模准确性的优越性。此外,我们提供易于使用的代码库并发布了一个生成的成对乳腺磁共振成像数据集,该方法具有多种应用,包括预注册影像生成和反事实情境分析等。
Feb, 2024
本文提出了一种用于连续器官和肿瘤分割任务的创新结构,包括一系列轻量级的、类特定的输出头,以及将对比语言 - 图像预训练嵌入到器官特定的头中。实验结果表明该方法在学习过程中提高了基线神经网络对新引入和先前学习类别的分割性能。
Jun, 2023
该研究提出了一种高效的多视图学习框架,通过与各种变换的多个增强视图进行比较,对比学习不变的血管特征表示,以克服数据短缺问题并提高泛化能力,同时将注意机制集成到卷积神经网络中,用于进一步捕捉复杂的连续曲线状血管结构。该方法在 CHASE-DB1 数据集上验证,使用 UNet 结构获得 83.46% 的最高 F1 得分和 71.62% 的最高 IoU 得分,分别超过现有基准 UNet 方法的 1.95% 和 2.8%。该方法的快速训练和高效实施特性支持实际应用和部署。
Nov, 2023