FLDNet:利用长距离依赖关系进行息肉分割的前景感知网络
本研究提出一种名为 Fusion-Transformer-HardNetMSEG (Fu-TransHNet) 的混合网络,通过多种深度学习机制融合和多视角协作学习技术提高结肠息肉的分割精度。富 - TransHNet 利用变压器和 CNN 分支实现全局和局部特征学习,设计了一个融合模块来整合两个分支的特征,利用多视图协作学习技术获取各自权重,结果表明 Fu-TransHNet 网络在五个广泛使用的基准数据集上优于现有方法。
Jan, 2023
为了提高医学诊断的效率和准确度,减少患者结直肠癌的风险,我们提出了一种名为 MLFF-Net 的新型息肉分割方法,该方法利用多级特征融合和注意机制。实验证明该方法不仅可以分割多种类型的息肉,还在准确性和概括能力方面优于现有最先进的方法。
Sep, 2023
通过使用多频特征融合息肉分割网络 (M3FPolypSegNet),以及多任务学习的方法,本研究提出了一种新颖的基于频率的全卷积神经网络,能够自动地分割结肠镜图像中的小型息肉,提高了分割的准确性和效率。
Oct, 2023
本文介绍了一种用于医学图像分割的新型深度学习模型 SSFormer,该模型使用了金字塔 Transformer 编码器来改进模型的泛化能力,提高了模型的学习和推广表现。
Mar, 2022
我们提出了一种新的体系结构,结合了 transformer 和全卷积分支,以实现大尺寸结肠镜图像的自动分割,具有先进的性能和更好的泛化能力,适用于肠镜检查中早期检测肠癌的应用。
Aug, 2022
通过引入名为 Dense Attention Gate 的新模块,建立了多层特征之间的本地特征关系,同时采用新的嵌套解码器架构来增强语义特征,并与 PVT 主干网络相结合,实现了多层密集特征的层次聚合,从而在多个数据集上取得了最新的性能表现,优于先前的模型。
Mar, 2024
本文提出了一种基于双解码器注意力网络的新型架构 DDANet,通过在 Kvasir-SEG 数据集上训练并在一个未见数据集上测试,达到了 0.7874 的 Dice 系数,0.7010 的 mIoU、0.7987 的召回率和 0.8577 的精度,证明了模型的泛化能力。
Dec, 2020
该研究论文利用深度学习技术提出一种新颖的实时结构化模型 ——DilatedSegNet,可用于肠镜检查中息肉分割,其平均 dice coefficient 为 0.90,mIoU 为 0.83,其结果表明该模型具有以实现实时反馈为主导且保留了高分割性能特点的高潜力。
Oct, 2022
在医疗保健中,高效的息肉分割在早期诊断结直肠癌方面起着关键作用。本文提出了一种专门用于结肠镜图像中的息肉分割的多尺度边缘引导注意力网络(MEGANet)。该网络通过融合经典的边缘检测技术和注意力机制,有效地保留了高频信息,尤其是边缘和边界,从而解决了背景分布复杂、息肉大小和形状变化多样以及界限不清等挑战。实验结果表明,MEGANet 在五个基准数据集上优于现有的其他方法,代码可在 https://github.com/DinhHieuHoang/MEGANet 获取。
Sep, 2023