基于解剖识别的深度学习方法,通过无监督学习从手术视频中构建手术路径,从而解决内窥镜手术中由于缺乏可区分的纹理和地标以及内窥镜设备的局限性(如有限的视野和光照条件)所带来的定位问题。
May, 2024
本文提出了一种半监督学习框架,为无标签图像对增加循环一致性限制,在监督丢失和无监督训练中实现了最先进的语义匹配性能。
Jan, 2019
提出了一种基于单目内窥镜数据的自监督卷积神经网络训练方法,无需解剖学或阴影的先验建模,仅需要单目内窥镜视频和多视角立体方法,如运动结构,以稀疏方式监督学习。
Feb, 2019
自监督学习 (SSl) 在计算机视觉中取得了重要突破,在生物医学中具有重要作用,特别是在需要高度专业知识的数据注释领域。本研究使用先进的 SSL 框架,即 Masked Siamese Networks (MSNs),对内窥镜视频分析进行研究,以检测和治疗感染、慢性炎症性疾病或癌症。我们构建了大规模的无标签内窥镜视频数据集,用于训练 MSNs,以充分利用 SSL 的优势,并通过有限的注释数据集进行二次训练,从而在内窥镜基准测试中实现了最先进的性能,如腹腔镜和结肠镜手术阶段识别以及结肠镜息肉表征。此外,我们实现了注释数据量的 50%减少,同时不降低性能。因此,我们的工作证明了 SSL 在内窥镜检查中可以大大减少对注释数据的需求。
Aug, 2023
LVM-Med 是第一个在大规模医学数据集上训练的深度网络家族,并使用一种新的自监督对比学习算法来优化训练,实验结果表明,在处理医学任务时,LVM-Med 相比于其他现有模型可以获得更好的表现。
Jun, 2023
本文提出一种无监督的自我监督方法,用于训练卷积神经网络从单目内窥镜数据中密集地估计深度,而无需先验建模解剖或着色。
Jun, 2018
本文提出了一个新方法,即基于补充角度余弦相似度度量的补丁水平实体群差异化方法,它使得模型能够学习将类似的代表性补丁聚类在一起,从而提高它们在不同类别之间的分离能力。实验结果表明,我们的方法优于基线架构,对分类、检测和分割任务的准确度分别提高了 4%、2% 和 3%。此外,我们还证明了我们的方法相对于所有 SOTA 方法具有更好的泛化性,我们的泛化性评估提高了近 7%。
May, 2023
通过自我监督预训练的卷积神经网络(即 UNet)已经成为在低标注情况下促进医学图像分割的强大方法。我们提出了一种关键点增强的融合层,它提取保留短程和长程自我注意力的表示,并且在全局和局部尺度上引入了自我监督预训练,通过创建关键点之间的对应关系并鼓励特征之间的相似性来提高分割结果。
Oct, 2023
通过利用跨模式和视角的对应关系,该论文提出了一种新颖且有效的自监督学习方法,联合学习 2D 图像特征和 3D 点云特征,并通过神经网络评估跨模态的对应关系,而无需使用人工标注标签。
Apr, 2020
提出了一种适用于数字病理学领域的自监督方法,利用同构网络从全切片图像中提取特征来创建稳健和紧凑的图像描述符,其由长度为 128 的特征向量生成,并结合实验结果表明,相比于现有的 ImageNet 和通用的自监督特征提取方法,该方法在图像检索方面具有更好的表现。
May, 2019