- 解剖学感知的半监督图像分割的不确定性
通过利用全局信息来估计分割不确定性的一种新方法,该方法首先学习了一个解剖感知的表示,然后将新分割的预测映射为一个解剖上可信的分割,借助于与可信分割的偏差,估计底层像素级不确定性以进一步指导分割网络,该方法仅使用一次推断从我们的表示中估计不确 - BAAF:医疗超声图像分割任务的基准注意力自适应框架
通过提出更普遍和稳健的基准关注自适应框架 (BAAF) 协助医生更快更准确地在超声图像中分割和诊断病变和组织,本研究在四个医学超声分割任务上评估了该方法,充分实验结果显示了与现有先进方法相比明显的性能改善。此外,与现有关注机制的比较也证明了 - 腹部 CT 中快速、低资源和准确的器官与全癌肿瘤分割的两阶段混合监督框架
提出了一种混合有导师的框架(StMt),通过使用部分标记和未标记的数据进行腹部器官和肿瘤的分割。采用两阶段分割流程和基于整体体积的输入策略,以最大程度地提高分割准确性,并同时满足推断时间和 GPU 内存使用的要求。在 FLARE2023 的 - SortedAP: 重新思考实例分割的评估指标
设计用于评估实例分割的度量标准围绕着全面考虑目标检测和分割准确性展开,然而,当前研究忽视了其他重要特性,如敏感性、连续性和一致性。本文揭示了大多数现有度量标准在测量分割质量方面具有有限的分辨率,它们只在掩模或错误预测的变化情况下有条件地敏感 - 基于大型视觉模型的医学图像标注框架 SAM^Med
SAM 模型为基础,通过 SAM^{assist} 和 SAM^{auto} 两个子模块,提出了 SAM^{Med} 框架,无需大量标记即可实现精准的医学图像分割。
- 跨模态掩码自蒸馏用于指代图像分割的 CM-MaskSD
本文提出了一种名为 CM-MaskSD 的跨模态掩膜自学习框架,利用被称为 CLIP 模型的知识实现了精细的图像 - 文本对齐,并引入少量参数协调多模态特征,使其在三个基准数据集上优于现有方法,实现了对指定图像中物体的分割。
- 放射治疗深度学习分割模型实时监测的质量保证框架
本文利用心脏亚结构分割任务为例,建立了一个深度学习模型质量保证框架,其中通过使用训练自动编码器(DAE)和两个手工设计的特征来开发图像域移位检测器,再利用提取的特征训练回归模型来预测患者关键数据的分割精度,并成功测试了该框架。
- 混凝土表面裂缝分割的双流融合模型
本文提出了一种基于双流融合的裂纹分割模型,具有更高的检测精度和更强的适应性,并提出了一种新的交互融合机制和边缘优化方法,以改善分割准确度。
- CVPR领域无关的先验知识在语义分割中的迁移
本研究通过在源域和目标域约束特征,提出一种简单高效的无监督域自适应方法,即使用无领域先验 (DAP) 正则化交叉域表示学习,这种方法在将综合数据转移到真实数据的标准评估协议中,表现出优秀的语义分割准确性,对于提高模型的分类表现具有指导意义。
- 视频分割的密集无监督学习
本研究提出了一种新的无监督学习方法,其中使用密集特征表示直接进行卷积全制度的学习来进行视频对象分割。通过使用一个简单的规则化方案,该方法能够提高分割精度并达到快速的训练收敛。最终,该方法在标准的视频对象分割基准测试中取得了较高的精度。
- IJCAI利用压缩与扩张变换的医学图像分割
研究使用 transformers 和 Squeeze-and-Expansion Transformer 实现医学影像分割,较传统方法显著提高了分割准确度和跨领域泛化性。
- 用于伪装目标分割的支流网络
本文主要探索追踪伪装物体的图像分割问题,提供一个新的伪装物体数据集,提供了一种通用的端到端网络 ——Anabranch 网络,融合了分类和分割功能,采用多种全卷积网络评估其在新构建的数据集上的效果。
- CVPR自监督增强一致性用于语义分割适应
本研究提出一种实用且高精度的 “领域自适应(domain adaptation)语义分割” 方法,通过数据增强,确保保持图像转换后的语义预测的一致性,在轻量级自监督框架中训练并取得了显著的精度提高。
- 具有自适应特征库和不确定区域细化的视频目标分割
本文介绍了一种半监督视频对象分割算法。算法利用匹配特征的方法来实现对象分割,并通过引入特征库的动态更新方法来增强算法的效果。并且,本文还设计了信心值损失函数和细粒度分割模块,以提高算法在不确定区域的分割准确性。在公共基准测试上,本算法优于现 - MirrorNet: 生物启发型伪装物体分割
本文提出了一种新颖的仿生网络 MirrorNet,利用实例分割和镜像流进行伪装物体分割,具有两个分割流:主流和镜像流,通过对主流结果与镜像流结果的融合,提高了伪装物体分割的精度,在公共 CAMO 数据集上的实验证明了其有效性,本文所提出的方 - PraNet: 并行反向注意力网络用于息肉分割
本文提出了一种基于反向注意力网络(PraNet)的用于结肠镜图像中结肠息肉准确分割的方法。在两种主要困难的挑战下,PraNet 通过并行反向注意力模块和部分的解码器提供了更准确的分割结果,并在五个数据集上进行了评估。
- AAAI生成敌对网络用于视频到视频的域自适应
本文提出了一种名为 VideoGAN 的生成对抗网络,用于跨不同域传输基于视频的数据,并通过对结肠镜数据的实验验证,表明我们的 VideoGAN 可以显著提高多中心数据集上结直肠息肉分割的精度,并可用于将图像从阴天转换为晴天的任务。
- 基于知识蒸馏的非配对多模式分割
本研究提出了一种新颖的多模式学习方案,以实现无配对交叉模态图像分割,该方案采用高度压缩的体系结构,通过共享所有卷积核跨 CT 和 MRI 和仅使用特定于模态的内部归一化层来对网络参数进行大量重用,通过知识蒸馏受启发的新颖损失项来显式约束我们 - AAAI基于循环解码单元的医学 MRI 分割
本文提出了一种名为 Recurrent Decoding Cell(RDC)的新型特征融合单元,利用卷积 RNN 从前面的层中记忆长期上下文信息,同时基于 RDC 提出了 Convolutional Recurrent Decoding N - 一种部分可逆的 U-Net 用于内存高效的体积图像分割
在 3D 卷积神经网络分割方面,一种部分可逆的 U-Net 架构通过减小内存消耗实现了深度增强并提高了分割准确性,在 BraTS 挑战数据集上展示出了很大的内存节省。