本论文介绍了一个利用自动提取的场景上下文信息的多摄像头全局组合行人检测方法,通过语义分割技术获得上下文信息用于自动生成场景的共同区域,从而获取一系列的联合检测框。相比其他同类方法,本文提出的方法具有场景无关性和实现的快速性,且在五个公共数据集上验证具有更好的性能。
Dec, 2018
提出了一种多相机 3D 行人检测方法,该方法不需要使用目标场景的数据进行训练,通过基于人体姿势和来自现成单目检测器的人物包围框的新启发式方法在地面平面上估计行人位置,然后将这些位置投影到世界地面平面,并用新的团覆盖问题公式进行融合,同时还提出利用域通用的行人再识别模型在融合期间对行人外貌的选择性步骤,评估表明,在具有挑战性的 WILDTRACK 数据集上,所提出的方法获得了 0.569 的 MODA 和 0.78 的 F 分数,优于现有的最先进的通用检测技术。
Apr, 2021
该研究引入了一种使用卷积神经网络和条件随机场混合建模的多相机多人跟踪算法,能够在拥挤场景中鲁棒地处理潜在的遮挡问题并且表现优于当前多种算法。
Apr, 2017
通过使用深度学习算法解决多视角人员占用地图估计问题,并构建一个利用多个视频流的架构,将其联合利用,从而在 PETS 2009 数据集上大幅度优于现有方法。
Feb, 2017
通过开发具有遮挡感知目标的多机器人多演员视角规划器与贪婪形成规划器比较,我们评估了拍摄人群中碰撞和遮挡对性能的影响,并计划在五个具有复杂多演员行为的测试环境中。与形成规划器相比,我们的顺序规划器在三个场景中为演员生成了 14%更多的视角奖励,并且在其他两个场景上的性能与形成规划相当。总体而言,我们展示了对人群进行拍摄的空中机器人团队的有效协调,这些人群可能分裂、合并或散开,并且在可能引起碰撞或遮挡的障碍物所充斥的环境中。
Oct, 2023
利用基于自注意力机制的 TSformer-VO 模型,将单目视觉里程计作为视频理解任务,从视频片段中提取特征并通过端到端的方式估计摄像机的 6-DoF 位姿,取得了与基于几何和深度学习的方法相比具有竞争力的业内领先表现。
May, 2023
本文提出在未经校正的鱼眼图像上运行的多任务视觉感知网络来加强自动汽车系统的六个主要任务,其中包括深度估计,视觉测距,语义分割,动态分割,目标检测以及镜头污染检测,通过联合训练模型,在 KITTI 数据集上实现深度估计和姿态估计任务的最新结果。
Feb, 2021
本文讨论了多鱼眼相机系统的标定和处理流程,方法可用于自动泊车等应用场景。该流程可以精确标定多相机系统,构建稀疏的三维地图用于视觉导航、车辆定位,并基于实时深度图提取进行精确的物体检测。
Aug, 2017
该论文综述了深度学习在结合全景鱼眼摄像机的视觉任务中的应用,包括物体检测、活动识别等,利用鱼眼镜头的全向视野可以大大减少部署所需的工作和成本。
Apr, 2023
本文提出了一种通过知识蒸馏和数据增强强化单摄像头视角下机器人操作任务的强化学习算法的方法,在模拟和现实环境下进行了实验验证并取得了良好效果。
Mar, 2023