单核 CPU 上的彩色和深度实时 3D 模型跟踪
本研究提出了一种基于深度神经网络的视觉损失函数,通过对凸形物体外轮廓的对齐来驱动位姿更新进行模型为 6D 姿态精修的处理,方法无需确定外观模型、免除了手动图像分割、同时能够处理遮挡问题和几何不对称性与视觉模糊问题,并且能够在没有深度数据的情况下准确地估算物体位姿。
Oct, 2018
利用深度学习,我们提出了一种基于时间的 6 自由度跟踪方法,可在具有挑战性的真实世界数据集中实现最先进的性能,具有比现有最佳方法更准确、更鲁棒的抗遮挡性能,同时保持实时性能。在评估其效力时,我们在几个具有挑战性的 RGBD 序列上进行了评估,并通过一系列对象逐渐被遮挡的序列系统地评估了对遮挡的鲁棒性。最后,我们的方法完全是数据驱动的,不需要任何手动设计的特征:鲁棒跟踪是自动从数据中学习的。
Mar, 2017
本论文提出一种新的概率追踪算法 ICG,可以基于目标物体的区域和深度信息而无需依赖纹理,并采用对应线和点迭代改进姿态,同时增加了鲁棒的遮挡处理,能够在真实场景下实现更高的精度与鲁棒性,实验结果表明,该算法不仅在纹理丰富的物体上表现优异,而且在追踪精度和效率方面远优于现有的技术。
Mar, 2022
本文提出了一种基于深度神经网络的多摄像头的实时人物追踪方法,该方法通过地点网络、快速精确的在线跟踪器等多个模块实现了实时性高、追踪效果优秀的实时多摄像头 3D 人物追踪。
Mar, 2020
本文提出了基于深度感知的长期 RGBD 追踪算法,通过将深度信息嵌入到深度相关滤波器中,并用于目标重新检测,实现了与当前最先进 RGBD 追踪算法相当甚至更好的性能,运行速度达 20fps。
Dec, 2019
论文提出了一种实时捕获全身人类表现的全新方法,能够通过单个 RGB 视频重建完整人类的密集、时空一致变形几何形态,通过二阶段的分析合成优化策略实现精细的人类表现捕获,并且结合了 4D 运动捕捉,利用材料区域的自动识别进行模型优化,从而实现最终的实时全身表现捕捉。
Oct, 2018
本文介绍了一种仅使用少量 Kinect 传感器进行无标记动作捕捉的高效且廉价方法,通过使用最近的图像分割技术和纯合成数据进行课程学习,实现了对身体各部位的准确本地化并且无需使用显式形状模型。同时,我们介绍了一个包含约 6 百万合成深度帧的新数据集,并超过了 Berkeley MHAD 数据集的最新结果。
May, 2016
该研究提出了一种用于实时追踪刚体三维物体 6 自由度位姿的算法,采用单目 RGB 相机,利用一种基于区域的代价函数,并通过 Gauss-Newton 优化得到高度准确和鲁棒的跟踪性能,特别是在有杂乱背景,异质对象和局部遮挡的情况下,该算法表现出色。
Jul, 2018
该研究提出了一种用于实时全身捕捉的方法,可以从一张彩色图像中估计身体和手部的形状和运动,同时还可以生成带有动态 3D 面部模型的手部和身体。其方法采用了一个新的神经网络架构,可以高效地利用身体和手部之间的相关性。与先前的方法不同,该方法可以在多个数据集上进行联合训练,而无需同时注释所有部分的数据,从而实现了更好的泛化能力。该方法可以更准确地捕获面部表情和颜色,还可以估计统计面部模型的形状,表情,颜色和照明参数。在公共基准测试中,该方法达到了竞争性的准确性,但速度更快,提供了更完整的面部重建。
Dec, 2020
追踪物体的六维姿态,在物体本身或观察相机移动时,对许多机器人学和增强现实应用非常重要。在跟踪任务的严格时间限制下,我们提出了将物体追踪简化为加强点云(仅深度)对齐任务的方法。
Jul, 2023