自监督预训练用于二维医学图像分割
本文提出一种基于自监督预训练的医学图像分析深度学习训练策略,通过将不同扭曲应用于图像的随机区域,预测扭曲的类型和信息的损失,并使用改进的 Mask-RCNN 体系结构定位扭曲位置和恢复原始图像像素,将该方法用于分割任务,能够提高 Dice 分数 20%。
Jul, 2022
深度学习在医学影像中具有潜力,可以减少诊断错误的风险,减轻放射科医生的工作负荷并加速诊断。为了解决医学影像领域注释数据集不足的挑战,我们通过预先训练大型无注释图像数据集上的深度学习模型来实现自我监督学习,并提出了 SparK 预训练方法,它在小型数据集上表现更为稳健。
Aug, 2023
本研究探讨了自监督学习作为医学图像分类的预训练策略的有效性,使用领域特定的无标签医学图像进行自监督学习,并引入一种新颖的多实例对比学习 (MICLe) 方法,为医学图像分析中的皮肤病和胸部 X 光分类任务提供了更为准确的预测。
Jan, 2021
自我监督学习和半监督学习在医学影像领域的新进展,通过 S4MI(自我监督和半监督医学影像)管道,使用 10% 标签注释的自我监督学习在大多数数据集的分类任务上表现优于 100% 标签注释,而使用 50% 标签数较少的半监督方法在三个数据集的分割任务上表现更好。
Nov, 2023
本文研究了两种预训练方法(回归损失和对比损失)对深度学习模型在磁共振成像下的肝脏分割和前列腺分割应用中的效果,并发现自我监督预训练减少了标记数据的需求,且基于对比损失的预训练的初始化效果更好。
May, 2022
自监督预训练在医学图像诊断任务中通过改善特征表示进而提高了下游任务性能,尤其是在无标注样本数量远远超过有标注样本数量时。该综述总结了近期在 X 射线、计算机断层扫描、磁共振和超声成像领域中应用自监督预训练与全监督学习相比较的研究,最重要的发现是自监督预训练普遍提高了诊断任务的性能。基于综合证据,为考虑使用自监督学习的实践者提供了相关的建议,同时针对当前研究中存在的局限性,提出了未来研究的方向与实践,如将临床知识与理论基础的自监督学习方法结合、在公共数据集上进行评估、扩展对超声成像领域的研究证据,以及表征自监督预训练对泛化性能的影响。
Sep, 2023
在本文中,我们展示了使用一种称为 Barlow Twins 的自我监督学习算法进行预训练的模型可以胜过常规的监督转移学习流程,该模型在小型标记皮肤病变数据集上进行微调后,在大型测试集中取得了 70% 的平均测试准确率,相比于监督转移学习的 66%。这暗示在标记困难的环境中收集更多未标记图像可能是一条获取更多标记数据的替代途径。我们的框架适用于低标记数据情境下的癌症图像分类模型。
Jan, 2024
本文比较了三种自监督预训练模型和一个有监督的基线模型,在五个数据集上进行了皮肤病变的诊断。结果表明,自监督预训练模型可以在提高准确性和降低结果的变异性方面与有监督的基线模型相媲美,尤其在数据量少的情况下表现更加稳定和优秀。
Jun, 2021
通过自我监督学习,在不同手术数据集上进行预训练,从而灵活地利用多样化的手术数据,为各种手术下游任务学习与任务无关的表示,研究发现预训练数据集的组成严重影响自我监督学习方法在各种下游任务上的有效性,对于规模化应用自我监督学习方法应充分考虑预训练数据集的组成。
Dec, 2023
本文提出了一种半监督学习的方法,即自我训练范式,通过用标注数据训练教师模型并在大量未标注数据上生成伪标签,以较少的监督实现像素级准确模型,并在 Cityscapes,CamVid 和 KITTI 数据集上取得了最优表现,同时,在具有挑战性的跨域泛化任务上表现更佳,最后,为了减轻大量伪标签带来的计算负担,提出了一种快速训练计划来加速分割模型的训练。
Apr, 2020