多层特征融合网络结合注意力机制用于息肉分割
通过使用多频特征融合息肉分割网络 (M3FPolypSegNet),以及多任务学习的方法,本研究提出了一种新颖的基于频率的全卷积神经网络,能够自动地分割结肠镜图像中的小型息肉,提高了分割的准确性和效率。
Oct, 2023
本研究提出一种名为 Fusion-Transformer-HardNetMSEG (Fu-TransHNet) 的混合网络,通过多种深度学习机制融合和多视角协作学习技术提高结肠息肉的分割精度。富 - TransHNet 利用变压器和 CNN 分支实现全局和局部特征学习,设计了一个融合模块来整合两个分支的特征,利用多视图协作学习技术获取各自权重,结果表明 Fu-TransHNet 网络在五个广泛使用的基准数据集上优于现有方法。
Jan, 2023
利用边缘感知的特征聚合网络 (EFA-Net) 对息肉进行分割,克服不同尺度和模糊的边界,实现更准确的早期诊断和防治结直肠癌 (CRC)。实验结果表明,EFA-Net 在泛化性能和有效性方面优于现有的息肉分割方法。
Sep, 2023
通过引入名为 Dense Attention Gate 的新模块,建立了多层特征之间的本地特征关系,同时采用新的嵌套解码器架构来增强语义特征,并与 PVT 主干网络相结合,实现了多层密集特征的层次聚合,从而在多个数据集上取得了最新的性能表现,优于先前的模型。
Mar, 2024
在医疗保健中,高效的息肉分割在早期诊断结直肠癌方面起着关键作用。本文提出了一种专门用于结肠镜图像中的息肉分割的多尺度边缘引导注意力网络(MEGANet)。该网络通过融合经典的边缘检测技术和注意力机制,有效地保留了高频信息,尤其是边缘和边界,从而解决了背景分布复杂、息肉大小和形状变化多样以及界限不清等挑战。实验结果表明,MEGANet 在五个基准数据集上优于现有的其他方法,代码可在 https://github.com/DinhHieuHoang/MEGANet 获取。
Sep, 2023
本文提出了一种应用全局多尺度残差融合网络(GMSRF-Net)进行息肉分割的方法,通过交叉多尺度的注意力和多尺度特征选择模块,增强了网络的泛化能力,在两个不同的息肉分割数据集上,该方法相较之前最优的方法提高了 8.34%和 10.31%的 dice 系数。
Nov, 2021
通过使用 FLDNet,一种基于 Transformer 的神经网络,该论文提出了在结直肠镜检查图像中准确检测和分割息肉的方法,并通过评估显示出在常用数据集上优于现有方法的先进性。
Sep, 2023
一个基于注意力机制的新型切割框架 MFA-Net(多尺度特征融合注意力网络)在医学 CT 图像中分割器官感兴趣区域,通过学习多个尺度的特征图并与现有方法进行比较,实验结果表明 MFA-Net 在不同尺度的图像上产生更加精确的分割。
May, 2024
本文提出了基于 Transformer 编码器、三个标准模块(包括串级融合模块,伪装识别模块和相似聚合模 块)的息肉分割方法,名为 Polyp-PVT。实验结果表明,该方法在人口学多样性、外观变化,甚至缺失数据方 面都具有较好的鲁棒性。
Aug, 2021