视频中行人的细粒度分类:基准及最新技术
提出了一种多相机 3D 行人检测方法,该方法不需要使用目标场景的数据进行训练,通过基于人体姿势和来自现成单目检测器的人物包围框的新启发式方法在地面平面上估计行人位置,然后将这些位置投影到世界地面平面,并用新的团覆盖问题公式进行融合,同时还提出利用域通用的行人再识别模型在融合期间对行人外貌的选择性步骤,评估表明,在具有挑战性的 WILDTRACK 数据集上,所提出的方法获得了 0.569 的 MODA 和 0.78 的 F 分数,优于现有的最先进的通用检测技术。
Apr, 2021
介绍了一份用于自动驾驶的行人模式数据集,其中包含了行人和车辆的 Full HD 视频和 GPS 数据,通过对采集的视频进行快速 R-CNN 行人检测,可得出每个时间段内人流密度估计,以便于评估不同路径下的人流风险。
Jan, 2020
本文提出了一种基于三维包围盒的车辆细粒度识别方法,不局限于特定视角,通过 CNN 网络的训练与改进,较之其他算法提高了 12% 的识别准确率。
Mar, 2017
介绍了一种新的数据集 WiderPerson,用于解决现有行人检测数据集缺少多样性和密度的问题,并提出了改进的 Faster R-CNN 和 RetinaNet 模型作为基准。在 Caltech-USA 和 CityPersons 等数据集上进行实验,证明该数据集可以有效提高模型的泛化能力,但需要加强对分类能力的改进以降低误报率和漏报率。
Sep, 2019
本论文介绍了一个利用自动提取的场景上下文信息的多摄像头全局组合行人检测方法,通过语义分割技术获得上下文信息用于自动生成场景的共同区域,从而获取一系列的联合检测框。相比其他同类方法,本文提出的方法具有场景无关性和实现的快速性,且在五个公共数据集上验证具有更好的性能。
Dec, 2018
该研究介绍了 EuroCity Persons 数据集,该数据集提供了大量的准确和详细的交通场景中的行人、骑车人和其他骑车人的标注,该数据集比以前用于基准测试的人员数据集大近一个数量级,而且还包含大量的人员方向标注,研究优化了四种先进的深度学习方法来服务于新的对象检测基准测试。
May, 2018
介绍了一个用于人行检测和人物识别的新数据集 PRW 及其评估,利用 6 个同步摄像头采集的视频,包含 932 个身份和 11,816 帧,使用了各种检测器和识别器的绩效分析,提出了两种改进措施,并评估了这些措施对于人物重新识别的效果。
Apr, 2016
本文介绍了一个名为 PedX 的新数据集,它是一个大规模的多模态数据集,包含超过 5,000 个高分辨率(12MP)的立体图像和 LiDAR 数据,并提供行人的 2D 和 3D 标签。我们还提出了一种新颖的 3D 模型拟合算法,用于自动化 3D 标记,利用不同模式和新颖形状和时间先验的约束。同时,我们还展示了手动 2D 标签可以被最先进的自动标记方法替换,从而促进大规模数据集的自动生成。在控制的户外环境中配置 mocap 系统以模拟城市交叉口的行人时,我们还将所有标注的 3D 行人定位到实际世界度量空间,并使用此系统验证了生成的 3D 模型。
Sep, 2018
本文介绍了如何解决行人属性识别领域中数据集基础的问题,构建了一个有丰富注释的 RICHLY ANNOTATED PEDASTRIAN (RAP) 数据集,对数据集进行了实验分析,证明了环境和语境因素对于行人属性识别的重要性。
Mar, 2016
该研究探究了行人检测领域当前最先进的方法和 “完美的单帧检测器” 的差距,并通过创建行人检测的人类基线和手动聚类来对其进行分析。通过研究检测器的训练注释噪声对检测器性能的影响,以及研究卷积神经网络用于行人检测时影响其性能的因素,该研究提出了改进方法,并在 Caltech 数据集上取得了最佳性能。
Feb, 2016