图像到图像翻译在改进行人检测中的应用
本文介绍了一个适用于低光环境下的可见光红外数据集 LLVIP,包含 30976 张严格时间和空间对齐的图片,其中 15488 对可见光和红外图像。实验结果表明,LLVIP 数据集可以促进图像融合、行人检测和图像转换等低光视觉任务的开展。
Aug, 2021
项目中,我们通过图像融合技术对数据集进行预处理,然后使用 Vision Transformer 模型从融合图像中检测行人。在评估过程中,我们将比较 YOLOv5 和改进后的 ViT 模型在融合图像上的性能。
Mar, 2023
综述了最近在低光条件下行人检测方法的发展,系统地对基于区域、非区域和图形学习方法的各种算法进行分类和分析,同时着重介绍了这些算法的方法学、实施问题和挑战,还概述了可用于研究和开发先进行人检测算法的关键基准数据集,特别是在低光情况下。
Nov, 2023
该研究提出了一种基于 I2V-GAN 的视频翻译方法,可以生成细粒度和时空一致的可见光视频。该方法采用三种约束,包括对抗损失、循环一致性和相似性约束,同时提供了一个新的 IRVI 数据集,以提高这方面的研究水平。
Aug, 2021
本文提出了一种利用生成网络和检测网络将 RGB 图像转化为热成像图像的端到端框架,并通过生成的热成像图像与真实数据进行比较,论证了使用生成对抗网络将 RGB 训练数据转化为热成像数据的可行性,从而加快和降低生成热成像数据的成本,满足安全应用的需求。
Oct, 2023
本文提出一种基于多任务学习的多光谱行人检测框架,利用新颖的感知权重机制、带 illumination-aware 的深层卷积神经网络等技术,提高了检测和语义分割的性能。实验结果表明,该方法在 KAIST 多光谱行人数据集上性能超过了现有的最先进方法。
Feb, 2018
本文提出了一种新的基于局部斯特林核(LSK)的多维模板或张量形式的中级属性,以便更好地检测远红外图像中的行人,并引入了一种新的图像相似度核,以在支持向量机的最大边缘框架内进行训练。我们的第三个贡献是采用多通道离散傅里叶变换来替代滑动窗口法进行行人定位,取得了很好的实验结果。同时,我们还将用于研究为目的的 OSU 彩色热数据库中的行人注释与研究社区共享。
Sep, 2016
本文提出了一种基于生成对抗网络的红外 - 可见光图像翻译算法 IR2VI,利用其结构连接模块和 ROI 聚焦损失方法,将可见光和红外图像的特征相互整合,以达到提高夜视效果的目的,并通过实验表明 IR2VI 算法超越了基准方法的优越性。
Jun, 2018