DepthTrack: 揭示 RGBD 跟踪的威力
本研究关注的是 RGB-D 物体跟踪,并通过发布新的 RGBD1K 数据集和利用此数据集中的 transformer-based RGB-D 跟踪器 (SPT) 作为我们的基线来展示其训练的益处和可潜力以提高 RGB-D 跟踪的性能。
Aug, 2022
本文提出了基于深度感知的长期 RGBD 追踪算法,通过将深度信息嵌入到深度相关滤波器中,并用于目标重新检测,实现了与当前最先进 RGBD 追踪算法相当甚至更好的性能,运行速度达 20fps。
Dec, 2019
本文提出了一种基于 RGB-D 视频序列的多目标跟踪方法,通过联合推断目标的完整几何形状和跟踪它们来提高跟踪的稳健性,通过人工构建目标的视状图像,得到相同实例之间的额外对应关系,从而提高了跟踪的鲁棒性。实验结果表明该方法在动态目标跟踪方面取得了 state-of-the-art 的性能。
Dec, 2020
本论文提出 ARKitTrack 数据集,包含 300 个 RGB-D 序列,455 个目标,总计 229.7K 个视频帧和 123.9K 像素级目标遮罩,并提供每个帧的相机内参和相机姿态信息。此外,研究人员还提出了一种新的跨模态 3D 几何一般方法,该方法将 RGB 特征与俯视图表示相结合,以更好地探索交叉模态 3D 几何信息。实验证明,ARKitTrack 数据集可以显著促进 RGB-D 跟踪,并且所提出的基线方法比当前技术水平更具优势。
Mar, 2023
该研究提出了一个大规模的 RGB-T 追踪视频基准数据集和一种新的基于图的方法,以学习强大的对象表示并实现多源数据融合的自适应融合,对其他最先进的追踪方法进行比较,并提供了对 RGB-T 对象追踪领域的新见解和潜在研究方向。
May, 2018
RGB-D 跟踪大大提高了物体追踪的准确性,但其对真实深度输入的依赖性和多模态融合的复杂性限制了其在各种场景中的适用性。我们提出了一种名为 MDETrack 的新方法,通过受监督或自监督辅助单眼深度估计学习,训练一个具有理解场景深度能力的跟踪网络,将 MDETrack 统一特征提取器的输出分别输入到并行的跟踪头和辅助深度估计头中。请参考我们在多个数据集上使用各种训练策略评估了我们的模型,结果显示即使没有真实的深度数据,我们的模型在物体追踪准确度上有所提升,从这些发现中我们突出了深度估计在提高物体追踪性能方面的潜力。
May, 2024
本文提出了一个名为 TSDM 的 RGB-D 跟踪器,该跟踪器通过使用深度信息提高了目标检测的效果,并在 Princeton Tracking Benchmark 和 Visual Object Tracking Challenge 测试中表现出更好的性能。
May, 2020
利用深度学习,我们提出了一种基于时间的 6 自由度跟踪方法,可在具有挑战性的真实世界数据集中实现最先进的性能,具有比现有最佳方法更准确、更鲁棒的抗遮挡性能,同时保持实时性能。在评估其效力时,我们在几个具有挑战性的 RGBD 序列上进行了评估,并通过一系列对象逐渐被遮挡的序列系统地评估了对遮挡的鲁棒性。最后,我们的方法完全是数据驱动的,不需要任何手动设计的特征:鲁棒跟踪是自动从数据中学习的。
Mar, 2017
我们介绍了一个名为 WildRGB-D 的新型 RGB-D 物体数据集,该数据集以自然环境中的实际采集为基础,与其他数据集相比,它的直接深度采集使得 3D 标注和下游应用更加准确和广泛。
Jan, 2024