DriveTrack: 实际世界视频的长距离点跟踪基准
提出了一种名为 Track Long and Prosper(TLP)的新型长视频数据集和单个目标跟踪基准,包含 50 个高清视频,超过 400 分钟(676K 帧),是现有通用数据集平均持续时间的 20 倍以上,通过对 17 种现有跟踪器进行精度和运行时间速度排名,以及定性和定量评估,突出了跟踪性能的长期方面的重要性并指出了研究努力在长期跟踪方向的潜在需求。
Dec, 2017
本研究旨在建立 “PoseTrack” 的标准,该标准是一种基于视频的多人姿势估计和关节跟踪的大规模基准,该基准将集合人类视觉分析研究人员的团体,通过提供大型代表性训练数据集,为研究提供平台并客观评估和比较提出的方法。
Oct, 2017
介绍了一个包括 234 个高清摄像头记录的多摄像头跟踪数据集,从纳什维尔市附近的一段 8-10 车道长约 4.2 英里的高速公路同时录制了 234 小时的视频数据。该数据集包含高密度交通状况下的 500 + 个物体,典型物体持续时间为 3-15 分钟。通过手动校正车辆行驶场景中的 GPS 轨迹,为跟踪评估提供了一组地面真实轨迹,并为每个摄像头提供了物体检测结果。初步对检测跟踪算法进行了基准测试,结果表明在长时空间范围内进行交通场景理解所需的跟踪性能不足。
Sep, 2023
该研究提出了 TrackingNet 数据集,为在野外进行物体跟踪提供了第一个大规模数据集和基准,并评估了 20 多个追踪器模型,结果表明,在野外物体跟踪仍然远未解决。
Mar, 2018
该研究提出了一个基于虚拟世界的视觉感知基准测试套件,通过对超过 250,000 个高分辨率视频帧的低层次和高层次的视觉任务进行全面地注释,并针对多个任务分析了最先进方法的表现,提供参考基线和突出未来研究的挑战。
Sep, 2017
本论文介绍了一个新颖的视频数据集,该数据集来自城市高速公路上相互交叠的交通摄像头,可在交通监控环境中进行多摄像头 3D 物体跟踪。该数据集包含来自至少 16 个摄像头的 3 个场景的视频,总长度为 57 分钟。为每个摄像头视野完全准确地注释了 87,700 个 3D 边界框和相应的物体轨迹,并将其组合成每个场景的空间和时间连续的车辆轨迹。最后,使用现有算法对数据集进行了多个 3D 多摄像头跟踪管道的基准测试,结果表明该数据集具有挑战性,因为在交通拥堵期间,对象的高速移动和严重遮挡可能持续数百帧之久。本研究旨在促进准确和自动的车辆轨迹提取算法的发展,这将在理解自动驾驶车辆技术对交通安全和效率的影响方面发挥重要作用。
Aug, 2023
我们介绍了 PointOdyssey,一个用于训练和评估长期细粒度跟踪算法的大规模合成数据集和数据生成框架。我们的目标是通过强调具有自然运动的长视频来推动技术的发展。
Jul, 2023
本文介绍了一种有效的框架以及注释轨迹的方法,用于生成具有前所未有的规模的 MOT 数据集,并通过验证表明我们的方法比现有技术更加准确和高效。此外,我们还 crowdsourcing 了 PathTrack 数据集,这个大规模的数据集将对物体追踪及目标识别领域产生重要影响,证明了这个数据集的价值,并且用已有的数据训练之后另行测评的结果证明了我们的方法的有效性。
Mar, 2017
本研究提出新型精度和召回率的性能评价措施,并通过拥有超过 2700 个身份的 1080p,60fps 视频上的 2 百万帧进行了大规模标注和校准,同时使用参考软件系统作为比较基准。研究结果表明,提出的措施恰当地评估了多相机设置中的身份识别性能,数据集提供了对目前跟踪器的现实挑战,而我们的系统的性能可与现有技术水平相当。
Sep, 2016