在本篇论文中,我们提出了一种基于像素分类的新型特征学习框架,并将显著目标检测作为像素分类问题来解决,该方法采用了名为 HyperFusion-Net 的密集分层特征融合网络,结合 ICNN 和超密集融合机制,它能够自动预测最重要的区域并以端到端的方式分割相关物体,实验结果表明该方法在七个公共数据集上的表现均显著优于其他现有最先进的方法。
Apr, 2018
本文提出了一种基于图网络的局部连接模型,来有效地融合光场数据中的特征并指导焦散堆叠融合过程,同时通过相互的引导方案实现全部焦点和焦散堆叠的特征增强,最终得出比现有方法更优的显着性预测结果。
Oct, 2021
本文提出了一种新的动态扩张金字塔模块和混合增强损失函数,在 RGB-D 显著目标检测方面表现优于现有方法。
Jul, 2020
本文提出了一个名为 cmMS block 的模块,结合了 cross-modality feature modulation、adaptive feature selection 和 saliency-guided position-edge attention,可以逐步整合和完善 RGB-D 显著性检测中的交叉模态补充关系,有效提高了精度表现。
本文提出一种基于红外和可见光图像的交互式多任务范式,通过特征筛选的融合子网和融合引导的交叉互补 SOD 子网相结合,进行物体定位和探测,同时提出交互式循环学习策略,以实现这两个任务的互相增强,取得了显著的效果。
May, 2023
本文提出了一种深度敏感的 RGB 特征建模方案,并使用深度几何先验来实现特征增强和背景分心减少。另外,我们还提出了一种自动架构搜索方法来进行 RGB-D 显着对象检测,取得了比现有技术更好的结果。
Mar, 2021
本文介绍了一种基于 Dense Attention Fluid network 的 Remote Sensing Images (RSIs) 显著性检测方法,提出了新的 Global Context-aware Attention (GCA) 和 cascaded pyramid attention 模块,并构建了包含 2,000 个图像的新型 RSI 数据集进行实验证明了该方法的明显优越性。
Nov, 2020
我们提出了一种有效的方法(LF Tracy),利用从光场相机中提取的丰富信息,并利用数据增强和信息聚合来增强显著目标检测(SOD)的性能。该方法在最新的大规模 PKU 数据集上相较于现有最先进方法取得了 23% 的改进,并且只使用了 28.9M 个参数,相比于使用 RGB 图像和使用 LF 图像的基础模型,准确性提高了 10%,增加了 3M 个额外的参数,提高了 86%。
Jan, 2024
提出了一个新的显著目标检测(SOD)模型 —SODAWideNet,它采用从头开始训练的神经网络,通过扩张卷积和自注意力机制等技术实现浅层网络,取得了与最先进模型相媲美的性能。
Nov, 2023
该研究提出了一种称为 SPNet 的新框架,它通过探索共享信息和特定性质(如特定性)来受益于 SOD 性能,并采用双模态特定网络和共同学习网络来生成单独的和共享的显着性预测地图,分别。此外,为了捕获丰富的互补多模态信息以提高 SOD 性能,该研究还提出了一种多模态特征聚合(MFA)模块。
Aug, 2021