浅层注意力网络用于息肉分割
本文提出了一种基于反向注意力网络(PraNet)的用于结肠镜图像中结肠息肉准确分割的方法。在两种主要困难的挑战下,PraNet 通过并行反向注意力模块和部分的解码器提供了更准确的分割结果,并在五个数据集上进行了评估。
Jun, 2020
本文提出了一种基于双解码器注意力网络的新型架构 DDANet,通过在 Kvasir-SEG 数据集上训练并在一个未见数据集上测试,达到了 0.7874 的 Dice 系数,0.7010 的 mIoU、0.7987 的召回率和 0.8577 的精度,证明了模型的泛化能力。
Dec, 2020
在医疗保健中,高效的息肉分割在早期诊断结直肠癌方面起着关键作用。本文提出了一种专门用于结肠镜图像中的息肉分割的多尺度边缘引导注意力网络(MEGANet)。该网络通过融合经典的边缘检测技术和注意力机制,有效地保留了高频信息,尤其是边缘和边界,从而解决了背景分布复杂、息肉大小和形状变化多样以及界限不清等挑战。实验结果表明,MEGANet 在五个基准数据集上优于现有的其他方法,代码可在 https://github.com/DinhHieuHoang/MEGANet 获取。
Sep, 2023
通过将残差学习和注意力方法结合的 BetterNet 卷积神经网络架构,有效增强息肉分割准确性,具有高效梯度传播、多尺度特征整合、关注关键区域学习过程、确保计算效率等特点,进一步优于现有的基准模型,为结直肠癌的早期识别和计算机辅助诊断提供新的可能。
May, 2024
通过自监督学习作为辅助任务以及空间 - 时间自注意机制,我们提出了一种视频息肉分割方法,以改进表示学习。我们的端到端配置和联合优化损失使网络能够在视频中学习更有区分性的上下文特征。实验结果表明,与多个最先进方法相比,我们的方法有所改进。我们的消融研究还证实了所提出的端到端训练选择相比最近提出的方法 PNS+ 和 Polyp-PVT,在 Dice 相似系数和交并比方面,网络准确性提高了 3% 以上,并分别与之相比提高了近 10%。对之前未见的视频数据的结果表明,所提出的方法具有泛化能力。
Jun, 2024
本文提出了一种名为 PNS-Net 的新型进展性规范化自注意力网络,其中采用归一化的自注意力块,结合卷积神经网络和重复网络,能够在单个 RTX 2080 GPU 上实现真实时间速度(约为 140fps),且无需后处理。实验表明 PNS-Net 在挑战性的视频息肉分割数据集上表现出了最先进的性能,具有不同设置下工作效果很好的潜力,成为处理视频息肉分割任务的有前途的解决方案。
May, 2021
本文提出了基于 UNet 架构的 NeouNet 模型以及混合损失函数,针对息肉分割问题提出了一种细粒度的解决方案,旨在高精度地识别高恶性风险的息肉。实验证明,与现有息肉分割模型相比,NeouNet 在基准数据集上取得了竞争力的结果。
Jul, 2021
提出了一种基于多尺度减法网络(MSNet)的自动结肠息肉分割技术,用于提取肠镜图像中的息肉特征。使用训练无损耗网络 LossNet 监督从底层到顶层的特征,并使用漏斗式结构进行不同尺度的特征融合,在达到 $352 imes352$ 像素图像时的实时速度为 $70fps$。
Aug, 2021