DiffYOLO:基于 YOLO 和扩散模型的抗噪声目标检测
DiffusionDet 是一种将对象检测作为从噪声框到对象框的去噪扩散过程的新框架,其在训练阶段通过对象框从地面实况框扩散到随机分布,模型学习将该过程反转,在推断阶段,模型以渐进方式将一组随机生成框细化为输出结果,使用随机框作为对象候选框有利于解决对象检测问题,并且该问题可以通过生成方法来解决。
Nov, 2022
通过设计双路网络和注意力特征融合模块,并提出一个子网络来为检测网络提供无霾特征,我们的 D-YOLO 通过减小清晰特征提取子网络与检测网络之间的距离来改善检测网络的性能,实验证明 D-YOLO 相比现有方法具有更优异的性能表现,是一个强大的检测框架用于弥合低级去雾和高级检测之间的差距。
Mar, 2024
本研究提出了一种基于扩散的伪装目标检测框架(diffCOD),该框架将伪装目标分割任务视为从噪声掩码到目标掩码的去噪扩散过程,并采用模型学习来逆转这一噪声处理过程。通过将输入图像先验编码和集成到去噪扩散模型中来加强去噪学习,同时使用注入注意力模块(IAM)通过交叉注意机制将从图像中提取的条件语义特征与扩散噪声嵌入相互作用以增强去噪学习。实验结果表明,在四个广泛使用的伪装目标检测基准数据集上,该方法相较于其他 11 种最先进的方法,尤其在伪装目标的纹理细分割上取得了有利的性能。
Aug, 2023
通过优化图像增强、检测框集成、去噪集成、超分辨率模型和迁移学习等方法,将 YOLOv7 目标检测器应用于 CDCOCO 数据集,实现了在不同环境中对失真图像的准确检测和修复。该去噪检测模型在各种真实场景中具有广泛的应用价值。
Sep, 2023
该研究提出了 3DifFusionDet 框架,将 3D 目标检测视为从噪声 3D 框到目标框的去噪扩散过程,并通过特征对齐策略和渐进改进方法,在 LiDAR-Camera 融合中取得了显著贡献。实验证明,3DifFusionDet 在 KITTI 上的表现优于前期的经典检测器。
Nov, 2023
介绍一种创新的基于深度学习的方法,使用去噪扩散模型将不同光学传感器的低分辨率图像转换为高分辨率图像,保留内容并避免不需要的伪影,通过大规模多样的 Sentinel-II 和 Planet Dove 图像配对数据集进行训练和测试,解决了在多传感器光学遥感图像的图像到图像转换任务中普遍使用的无分类器引导去噪扩散隐式模型(DDIM)框架所观察到的严重图像生成问题,生成具有高度一致的补丁的大型图像,包括颜色和特征,进一步展示了该方法如何改善贝鲁特,黎巴嫩和美国奥斯汀两个城市地区的异构变化检测结果,我们的贡献包括:i)基于去噪扩散模型的光学图像转换的新的训练和测试算法;ii)全面的图像质量评估和消融研究;iii)与无分类器引导 DDIM 框架的比较;和 iv)对异构数据的变化检测实验。
Apr, 2024
在本研究中,我们提出了一种先进的 Gatherand-Distribute 机制(GD 机制),该机制借助卷积和自注意操作实现。我们设计的新模型 Gold-YOLO 在跨所有模型尺度上提升了多尺度特征融合能力并在延迟和准确性之间实现了理想的平衡。此外,我们首次在 YOLO 系列中实现了 MAE 风格的预训练,使得 YOLO 系列模型能够从无监督预训练中受益。Gold-YOLO-N 在 COCO val2017 数据集上取得了出色的 39.9% AP 和在 T4 GPU 上的 1030 FPS,超过了以前的 SOTA 模型 YOLOv6-3.0-N 的相似 FPS +2.4%。
Sep, 2023
提出了一种新的图片自适应 YOLO (IA-YOLO) 框架,采用可微分的图像处理 (DIP) 模块设计实现,从而提高在逆境气象条件下的对象检测性能,并且在弱监督学习的情况下,联合学习 CNN-PP 和 YOLOv3。实验结果表明,在雾天和低光场景中,IA-YOLO 方法显示出很好的效果。
Dec, 2021
基于扩散模型和逆扩散算法的 6D 物体姿态估计框架,在减少噪声和不确定性的基础上实现准确的 2D-3D 对应,并通过对物体特征进行条件优化,取得了较好的性能。
Dec, 2023
提出了一个名为 PE-YOLO 的暗物体检测框架,该框架结合了金字塔增强网络(PENet)和 YOLOv3,并且在训练过程中仅使用普通检测损失简化了训练过程,实验证明,PE-YOLO 能够适应不同的低光条件下的物体检测,实现了 78.0%的平均精度(mAP)和 53.6%的帧率(FPS)。
Jul, 2023