提升腹腔镜解剖分割模型在实际应用中的适用性战略
基于医生实践指导的立体视觉和机器学习方法,该研究提出一种用于图像引导手术的新型人工智能辅助的腹腔镜测量方法,通过在实验环境中的评估,得到高精度的距离测量,并在具有无纹理区域的挑战性环境中表现出稳健性,为术中和术后测量提供了更精确、安全和高效的解决方案的基础。
Nov, 2023
通过结合多个部分注释数据集,我们提出了一种方法将互补注释合并到一个模型中,实现更好的场景分割和使用多个可用数据集。我们的方法成功地将 6 个类别组合成一个模型,与单独训练在各个类别上的模型集合相比,总体 Dice 分数提高了 4.4%。通过包含多个类别的信息,我们成功将胃和结肠之间的混淆减少了 24%。结果证明了在多个数据集上进行模型训练的可行性,为未来进一步减少对一个大型完全分割数据集的需求铺平了道路。
Feb, 2024
通过图像翻译方法,我们生成了外科镜检查图像的大量合成数据集,并展示了这样的数据集可用于训练和提高肝脏分割模型性能的可能性。
Jul, 2019
本文介绍了一项比较研究,探讨了在机器人以及传统腹腔镜手术中,基于视觉的不同方法用于器械分割和追踪的效果。研究表明,现代的深度学习方法在器械分割任务中表现优异,但结果还不完美。此外,合并不同方法的结果实际上显著提高了准确性。与此同时,器械追踪任务的结果表明,在传统腹腔镜手术中这仍然是一个待解决的挑战。
May, 2018
该研究提出了使用神经场方法进行腹腔镜视频追踪的技术,可以同时追踪手术工具和解剖结构,具有较高的追踪精度,并能生成与预训练深度估计器相媲美的伪深度图像,从而展示了使用神经场进行单目腹腔镜场景的 3D 重建的可行性。
Mar, 2024
本文探讨如何利用 Segment Anything Model (SAM) 技术进一步提高医学图像的显著性图测试准确性,同时可以泛化到不需要人类注释的测试方法,并研究 SAM 在医学领域中的应用和挑战,这包括图像预处理,自然语言建议以及 SAM 在多个医学成像数据集上的准确性。
Jun, 2023
当前的医学图像分割依赖于基于区域(Dice,F1 得分)和基于边界(Hausdorff 距离,表面距离)的度量标准作为事实标准。本论文通过使用相对体积预测误差(vpe)来直接评估分割任务中体积预测的准确性,集成了理论分析和多样数据集的实证验证。研究发现,将体积预测准确性纳入分割评估中起到了关键作用,这使得临床医生在真实医疗场景中更准确理解分割性能,进而提升了这些度量标准的解释性和效用。
Apr, 2024
通过扩充临床数据集中的少数样本,提高机器学习模型稳定性的一种新方法 —— 基于扩散模型的图像生成方法,可以生成与真实图像难以区分的组织病理学图像。
Apr, 2023
本文提出了一种用于 3D 医学图像分割的深度学习模型,通过使用限制视野范围的训练数据和针对不可能的身体区域的惩罚预测方法,有效解决了跨不同图像分布的泛化问题,显著提高了肿瘤预测的准确率和整体分割性能。
Apr, 2024
深度学习在腹部多器官分割方面取得了巨大的进展,但在边缘情况和复杂器官上的鲁棒性仍然是一个具有挑战性的问题。为了调查模型的鲁棒性,我们收集并注释了 RAOS 数据集,包括 413 名患者的 413 个 CT 扫描,涵盖了诊断 / 放疗、部分切除和完全切除三个临床组。该数据集可以作为评估模型鲁棒性的潜在基准,并提供了一些在公共数据集中很难获取的器官。我们对几种最先进的方法在这三个临床组中进行了基准测试,评估了性能和鲁棒性,并评估了 RAOS 与三个公共数据集之间的交叉泛化能力。该数据集和综合分析为未来鲁棒性研究提供了一个潜在的基准。
Jun, 2024