结直肠镜图像中的自动息肉分割
本文提出了一种用于结肠镜检查中结肠息肉图像分割的深度学习框架,该框架具有编码器和解码器,通过引入扩张卷积和简化的解码器来实现优化特征表示能力以及减少参数数量,在 CVC-ClinicDB 和 ETIS-Larib Polyp DB 上取得了最新研究成果。
Dec, 2019
该研究论文利用深度学习技术提出一种新颖的实时结构化模型 ——DilatedSegNet,可用于肠镜检查中息肉分割,其平均 dice coefficient 为 0.90,mIoU 为 0.83,其结果表明该模型具有以实现实时反馈为主导且保留了高分割性能特点的高潜力。
Oct, 2022
本文提出了一种基于双解码器注意力网络的新型架构 DDANet,通过在 Kvasir-SEG 数据集上训练并在一个未见数据集上测试,达到了 0.7874 的 Dice 系数,0.7010 的 mIoU、0.7987 的召回率和 0.8577 的精度,证明了模型的泛化能力。
Dec, 2020
通过将残差学习和注意力方法结合的 BetterNet 卷积神经网络架构,有效增强息肉分割准确性,具有高效梯度传播、多尺度特征整合、关注关键区域学习过程、确保计算效率等特点,进一步优于现有的基准模型,为结直肠癌的早期识别和计算机辅助诊断提供新的可能。
May, 2024
本文提出了一种基于反向注意力网络(PraNet)的用于结肠镜图像中结肠息肉准确分割的方法。在两种主要困难的挑战下,PraNet 通过并行反向注意力模块和部分的解码器提供了更准确的分割结果,并在五个数据集上进行了评估。
Jun, 2020
本研究旨在通过使用 Kvasir-SEG 数据集对几种先进方法进行基准测试,评估其在结肠镜疾病检测、定位和分割方面的性能,并显示所提出的 ColonSegNet 方法在精度、速度和分割任务方面均表现优异,其表现足以证明进行自动化实时息肉鉴别和划线的必要性。
Nov, 2020
该研究提出了一种改进的 ResUNet 架构,用于实现结肠镜图像分割,实验结果表明,ResUNet ++ 在公共数据集上表现出色,具有显著的性能优势。
Nov, 2019
通过引入名为 Dense Attention Gate 的新模块,建立了多层特征之间的本地特征关系,同时采用新的嵌套解码器架构来增强语义特征,并与 PVT 主干网络相结合,实现了多层密集特征的层次聚合,从而在多个数据集上取得了最新的性能表现,优于先前的模型。
Mar, 2024
本研究使用机器学习技术对多中心和多人群结肠镜图像中出现的息肉进行检测和分割,并分析了表现最好的团队的结果,发现准确性高于即时性能,并提出了需要提高模型泛化性来应对多中心数据集中的多样性的观点。
Feb, 2022