YONA:仅一个相邻参考帧即可精准快速地检测视频息肉
为解决结直肠息肉在早期检测中发现率低、训练数据有限、多样性大等问题,本文提出使用Y-Net深度学习方法,提高了息肉检测的F1分数7.3%和召回率13%。
Jun, 2018
本研究旨在通过使用Kvasir-SEG数据集对几种先进方法进行基准测试,评估其在结肠镜疾病检测、定位和分割方面的性能,并显示所提出的ColonSegNet方法在精度、速度和分割任务方面均表现优异,其表现足以证明进行自动化实时息肉鉴别和划线的必要性。
Nov, 2020
本论文提出了一种名为YOLO-OB的新模型,通过双向多尺度特征融合结构和基于中心的无锚框回归策略,显著提高了息肉检测的各项性能指标,尤其是召回率,同时实现了基于RTX3090图形卡的实时息肉检测(每秒39帧)。
Dec, 2023
通过使用增强中心点网络与对比学习(ECC-PolypDet)的两阶段训练和端到端推理框架,结合图像和边界框注释来训练通用模型,并基于推理得分对其进行微调,以获取一个最终鲁棒的模型,从而实现对结直肠癌早期诊断至关重要的息肉准确检测。
Jan, 2024
通过利用混合注意力Siamese Transformer(MAST)显式地建模长距离时空关系进行精确的息肉分割,本研究在大规模SUN-SEG基准测试中展示了MAST相比先进竞争对手的卓越性能。
Jan, 2024
通过将残差学习和注意力方法结合的BetterNet卷积神经网络架构,有效增强息肉分割准确性,具有高效梯度传播、多尺度特征整合、关注关键区域学习过程、确保计算效率等特点,进一步优于现有的基准模型,为结直肠癌的早期识别和计算机辅助诊断提供新的可能。
May, 2024
通过自监督学习作为辅助任务以及空间-时间自注意机制,我们提出了一种视频息肉分割方法,以改进表示学习。我们的端到端配置和联合优化损失使网络能够在视频中学习更有区分性的上下文特征。实验结果表明,与多个最先进方法相比,我们的方法有所改进。我们的消融研究还证实了所提出的端到端训练选择相比最近提出的方法 PNS+ 和 Polyp-PVT,在 Dice 相似系数和交并比方面,网络准确性提高了3%以上,并分别与之相比提高了近10%。对之前未见的视频数据的结果表明,所提出的方法具有泛化能力。
Jun, 2024
该研究论文提出了一种名为SALI网络的视频分割方法,通过增强邻近特征的一致性和重建可靠的息肉表示,以改善内窥镜检查中肠镜视频息肉分割的准确性。实验证明,SALI网络在空间差异和低视觉线索的情况下表现出很强的鲁棒性,相比现有的方法,在大规模数据集上提高了Dice指数分别为2.1%、2.5%、4.1%和1.9%。
Jun, 2024
本研究针对结肠镜检查中腺瘤检测和分割的准确性和效率问题,通过将Segment Anything Model (SAM 2)与YOLOv8模型相结合,提出了一种新颖的腺瘤分割方法。该方法利用YOLOv8的边界框预测自主生成输入提示,显著提升分割精度,并减少人工标注的需求,为临床腺瘤检测的效率和可扩展性提供了有力支持。
Sep, 2024
本研究针对现有结肠镜视频中腺瘤定位的难题,提出了一种新颖的时空自校正检测器TSdetector,整合了时间一致性学习与空间可靠性学习,以提高检测性能。该方法通过全局时间感知卷积和分层队列集成机制,有效解决了序列间的异质性和预测精度与置信度的差异,最终在多个公开数据集上实现了最高的腺瘤检测率。
Sep, 2024