超声图像中病变分割的显著性图解耦与耦合
本文提出使用分而治之的思想来优化显著目标检测任务,并设计了基于此思想的 DC-Net 神经网络模型,其中包含两个编码器和一个解码器,通过预测边缘地图和显著对象位置地图来预测最终显著性图,并采用两级 ResASPP 模块来捕获不同尺度特征,最终在六个 LR-SOD 和五个 HR-SOD 数据集上取得竞争性的性能。
May, 2023
本文提出了一种更深、更紧凑的深度学习结构 DCSAU-Net,利用了两个新颖的框架:主要特征保留和紧凑的注意力块,在医学影像分割中表现出更好的性能,特别是在具有挑战性的影像上表现出色。
Feb, 2022
本文提出了一种新型的 LCAUnet 用于改善传统方法中经常被忽视的边缘和身体特征结合的能力,通过局部交叉注意力操作在编码器阶段融合边缘和身体的特征图,进一步嵌入 PGMF 模块进行特征集成,实验证明 LCAUnet 在公共可用数据集 ISIC 2017、ISIC 2018 和 PH2 上表现优于大多数最先进的方法,该方法有利于皮肤病变的精确分割。
May, 2023
介绍了一个无监督的癌症组织分割框架,利用深度 U-Net 和对比学习来提取特征并通过卷积随机场进行平滑和去噪,实验表明该方法在癌症分割方面表现竞争力更优于一些常见的有监督网络。
Jun, 2022
本研究提出了一种基于深度学习技术的具有场景上下文依赖关系的分解网络结构,能够有效增强低光照条件下的图像质量,在各种图像处理和多媒体应用中具有较强的实际应用价值。
Dec, 2021
无监督皮肤病变分割,采用 Uncertainty Self-Learning Network 自学习网络,通过对比学习提取特征,生成基于显著性的 Class Activation Maps,利用这些特征实现有效的皮肤病变分割,通过连接性检测、优先级检测和循环优化进一步提高性能。
Sep, 2023
提出了 Uncertainty Augmented Context Attention 网络(UACANet),用于息肉分割。在该网络中,考虑到显著图的不确定区域,并构建了一个具有附加编码器和解码器的 U-Net 形状网络的改进版本,并在每个自下而上流的预测模块中计算显著图,并将其传播到下一个预测模块,最终实现了比以前最先进的方法更好的表现,特别是在 ETIS 数据集上获得了 76.6%的平均 Dice 系数。
Jul, 2021
通过提出的 Spatial-Temporal Progressive Fusion Network(STPFNet)在超声视频乳腺病变分割问题中取得了比现有最先进方法更好的病变检测性能。
Mar, 2024
我们提出了一种名为 Saliency Fusion Attention U-Net (SalFAU-Net) 的模型,它在每个注意力 U-net 模型的解码器块中合并了一个显著性融合模块,从而可以准确地检测具有多个对象、小物体或低分辨率对象的具有挑战性场景的显著对象。我们通过使用二值交叉熵损失函数在 DUTS 数据集上训练 SalFAU-Net,并在六个流行的 SOD 评估数据集上进行实验以评估所提方法的有效性。实验结果表明,我们的方法在平均绝对误差(MAE)、F - 值、s - 值和 e - 值方面与其他方法相比具有竞争性的性能。
May, 2024
利用分解与整合方法的 DecomCAM 对复杂深度网络进行解释,突出显示模型决策基础的区域,提供清晰的显著性图和详细的可解释性,通过对目标概念的贡献进行集成,实现了定位准确性、可解释性和计算效率的优化平衡,有可能成为高级深度学习模型细粒度解释的工具。
May, 2024