使用红外和热成像融合进行火灾场景的实时人体检测
本研究旨在利用最新技术(例如深度学习、点云技术、红外成像技术、增强现实平台等)来提高消防员在火灾环境中的情境意识,并改善场景导航。我们设计并构建了一个嵌入式原型系统,该系统可以利用从消防员个人防护装备中内置摄像头中流传输的数据来捕捉热图像、RGB彩色图像和深度图像,进而实时分析所有数据并将处理后的图像通过无线流媒体传回给消防员,以增强现实方式表现出分析结果,并指示消防员注意烟雾和火焰中隐藏的物体,如门窗等。
Sep, 2020
项目中,我们通过图像融合技术对数据集进行预处理,然后使用Vision Transformer模型从融合图像中检测行人。在评估过程中,我们将比较YOLOv5和改进后的ViT模型在融合图像上的性能。
Mar, 2023
本文综述了RGB-DT多模态数据融合领域的最新研究进展,提供了细致的方法分类和技术评估,讨论了校准、热成像、三维重建以及特征和深度学习算法等方面,并探讨了该领域的挑战和未来发展方向。
May, 2023
本文提出了一种利用RGB相机和语义分割等技术实时探测被树木、烟雾、云等自然障碍物掩盖的野火的方法,并将此方法应用于无人机上以实现精准灭火。
Jun, 2023
我们提出了一种CNN-Transformer混合学习框架(称为IA-VFDnet),其中包括统一的高质量多模态特征匹配模块(AKM)和融合模块(WDAF),可以应用于烟雾和野火检测,并通过对M3FD数据集的实验证明了其在传统注册条件下的最佳检测性能。此外,此论文还公开提供了第一个未注册的多模态烟雾和野火检测基准。
Jul, 2023
本文介绍了一种多模式人体检测系统,结合了便携式热成像相机和单芯片毫米波雷达。为了减轻热成像相机低对比度和雷达点云多路径噪声引起的检测特征噪声,我们提出了一种贝叶斯特征提取器和一种新颖的不确定性引导融合方法,超过各种竞争方法,无论是单模式还是多模式。我们在真实数据收集上评估了所提出的方法,并证明了我们的方法在性能上大幅优于现有技术方法。
Jul, 2023
通过改进的YOLOv5火灾检测深度学习算法,可以有效地处理室内、室外和森林火灾图像中的火灾目标检测,并且可以在不同的自然光照条件下进行火灾检测。
Oct, 2023
本文介绍了一种提高当前航拍野火数据集质量的方法,旨在适应相机技术的进步,并提出了一种基于CycleGAN的流程以及一种新颖的融合方法,通过将配对的RGB图像作为属性调节器集成到两个方向的生成器中,从而提高了生成图像的准确性。
Jan, 2024
通过引入新型异构双鉴别生成对抗网络(HDDGAN),本研究旨在解决红外与可见光图像融合过程中捕捉热区域信息和纹理细节的挑战。通过多尺度连接结构和注意力机制,HDDGAN能够从不同源图像中提取重要特征,并实现信息融合结果的更好信息表示。通过在各种公共数据集上进行广泛实验,证明了HDDGAN相较于其他现有算法的优越性能,展示其在实际应用中的潜力增强。
Apr, 2024
本研究解决了在运输行业中,因资源限制而无法有效部署火灾检测模型的问题。提出的FireLite是一个低参数卷积神经网络,具有高达98.77%的准确率和极低的计算要求。该模型的精确性和高效性使其成为资源受限环境中火灾检测的有力解决方案。
Sep, 2024