利用鱼眼俯视摄像头进行大规模人员检测和定位
本研究提出了一种名为 RAPiD 的人体检测方法,使用任意方向的边界框为代表人体,并通过端到端的全卷积神经网络直接回归边界框的角度。实验证明该方法优于现有的方法。
May, 2020
使用鱼眼镜头进行头部姿态估计,提出了一种新的方法,通过图像中头部位置的知识来降低鱼眼畸变的负面影响,使用卷积神经网络从鱼眼图像直接估计头部姿态,无需校正或标定操作,实验证明与其他最先进的单阶段和双阶段方法相比,我们的网络显著提高了头部姿态估计的准确性。
Feb, 2024
本文介绍了一种针对鱼眼摄像头的开放式 FishEye8K 基准数据集,用于道路物体检测任务,该数据集包含五个类别,涵盖了 157K 个边界框。同时,本文还评估了基于弱监督和无监督策略的最新优秀模型,以及在该数据集上的实验结果。
May, 2023
自动驾驶中的物体检测是一个成熟的问题,但对于用于环视近场感测的鱼眼相机,物体检测相对较少探索。我们设计了旋转边界框、椭圆、通用多边形等表示方式,并提出了实例分割的 mIOU 指标来分析这些表示方式。提出的 FisheyeDetNet 模型使用多边形优于其他方法,在 Valeo 鱼眼环视数据集上达到了 49.5%的 mAP 得分。据我们所知,这是关于自动驾驶场景下鱼眼相机物体检测的首个详细研究。
Apr, 2024
本研究主要探讨了在自动驾驶场景中,鱼眼相机的目标检测问题。由于图像边缘的强烈径向失真,标准边界框方法无法很好地处理鱼眼相机的数据。因此,我们提出了一种新的多边形模型,并在比较多种检测方法时使用 IoU 度量来评估多边形模型的性能。通过使用一些先进的方法,包括基于曲率的多边形采样方法,我们设法在误差方面取得了重大进展。我们的方法大大提高了 mIoU 的相对准确度,并可以通过公共数据集进行验证。
Dec, 2020
提出了一种新颖的方法,结合基于变压器的图像增强框架和集成学习技术,解决城市交通监测系统中基于鱼眼镜头相机的问题,提高了系统的有效性和准确性,为智能交通管理系统的未来作出了重要贡献。
Apr, 2024
本文介绍了一种使用单一佩戴式鱼眼相机的自我中心全局三维人体姿势估计的新方法,通过对一系列帧进行时空优化,最小化热图投影误差,并强制执行从动作捕捉数据集学习到的局部和全局人体运动先验知识,实现了准确稳定的全局姿势,实验结果表明,我们的方法在定量和定性方面均优于现有的最先进方法。
Apr, 2021
本文提出在未经校正的鱼眼图像上运行的多任务视觉感知网络来加强自动汽车系统的六个主要任务,其中包括深度估计,视觉测距,语义分割,动态分割,目标检测以及镜头污染检测,通过联合训练模型,在 KITTI 数据集上实现深度估计和姿态估计任务的最新结果。
Feb, 2021
本文介绍了两个新的鱼眼图像数据集:VOC-360 和 Wider-360,用于训练人脸和物体检测模型的。这些数据集将有助于开发鱼眼图像的人脸和物体检测器以及分割模块,同时也为真实鱼眼图像的收集和手动注释工作提供了帮助。
Jun, 2019
本文研究了自动驾驶和监视等领域中对大视场(>180 度)需求的鱼眼相机,探索了基于自监督学习的尺度感知框架来学习从原始单目鱼眼视频中获取欧几里得距离和自运动。作者提出的算法在 KITTI 数据集上得到了与其他自监督单目方法相媲美的最新结果。
Oct, 2019