TRACER:极限注意力引导显著物体追踪网络
在本篇论文中,我们提出了一种基于像素分类的新型特征学习框架,并将显著目标检测作为像素分类问题来解决,该方法采用了名为 HyperFusion-Net 的密集分层特征融合网络,结合 ICNN 和超密集融合机制,它能够自动预测最重要的区域并以端到端的方式分割相关物体,实验结果表明该方法在七个公共数据集上的表现均显著优于其他现有最先进的方法。
Apr, 2018
该研究利用 RGB 图像估计深度信息,使用金字塔式的注意力机制从中提取多层级卷积变换的特征,综合使用残差卷积注意力解码器进行显著性预测,取得了比 21 种 RGB SOD 方法和 40 种 RGB-D SOD 方法更为优异的性能表现。
Apr, 2022
本文介绍了利用 TriTransNet 实现 RGB-D 显著物体检测的方法,采用了 U-Net 框架、连续的卷积和池化操作生成多级特征, 并引入了三个 Transformer 编码器来增强特征的贡献,通过所设计的多种特征处理模块和方法进行实验,可以取得领先水平和竞争力的结果。
Aug, 2021
提出了一个新的显著目标检测(SOD)模型 —SODAWideNet,它采用从头开始训练的神经网络,通过扩张卷积和自注意力机制等技术实现浅层网络,取得了与最先进模型相媲美的性能。
Nov, 2023
我们提出了一种名为 Saliency Fusion Attention U-Net (SalFAU-Net) 的模型,它在每个注意力 U-net 模型的解码器块中合并了一个显著性融合模块,从而可以准确地检测具有多个对象、小物体或低分辨率对象的具有挑战性场景的显著对象。我们通过使用二值交叉熵损失函数在 DUTS 数据集上训练 SalFAU-Net,并在六个流行的 SOD 评估数据集上进行实验以评估所提方法的有效性。实验结果表明,我们的方法在平均绝对误差(MAE)、F - 值、s - 值和 e - 值方面与其他方法相比具有竞争性的性能。
May, 2024
提出了用于显著性目标检测的多层次、混合和多阶段注意力网络(M$^3$Net),包括多尺度交互块和混合注意力块,并引入多层次监督策略进行聚合特征的优化。在六个具有挑战性的数据集上的实验证明,所提出的 M$^3$Net 在四个指标上优于最近的 CNN 和基于 Transformer 的显著性目标检测方法。
Sep, 2023
本文介绍了一种基于 transformer 的边缘检测器,利用全局上下文信息和详细的局部线索同时提取清晰和清晰的物体边界和有意义的边缘,表现比现有技术更优秀。
Mar, 2022
通过引入分层显著性筛选细化和稳定的两阶段初始化查询模块,该研究论文在 DETR 类方法中取得了显著的性能提升,克服了规模偏差和语义不匹配的问题,并在多个任务特定的检测数据集上实现了 4.0% ~ 4.4% 的平均准确率(AP)提高以及在 COCO 2017 数据集上实现了 49.2% 的 AP 提高,并且使用更少的 FLOPs 达到了更高的计算效率。
Mar, 2024
我们提出了一种有效的方法(LF Tracy),利用从光场相机中提取的丰富信息,并利用数据增强和信息聚合来增强显著目标检测(SOD)的性能。该方法在最新的大规模 PKU 数据集上相较于现有最先进方法取得了 23% 的改进,并且只使用了 28.9M 个参数,相比于使用 RGB 图像和使用 LF 图像的基础模型,准确性提高了 10%,增加了 3M 个额外的参数,提高了 86%。
Jan, 2024
提出了一种锐眼网络(SENet)用于在多维度特征和边缘 / 骨架引导下获取完整的明显对象的聚合。 全面实验结果表明,该方法在定量和定性上均优于现有方法。
Jan, 2023