高速运动物体的子框外观与 6D 姿态估计
本文提出一种联合估计高度运动模糊物体的 3D 运动、3D 形状和外观的方法,并通过基于链式法则求导的逆渲染技术实现快速运动物体的去模糊和三维重建。
Nov, 2021
本文提出一种新的方法,在视觉目标追踪方面通过 3D 形态和位姿表达,结合可微分渲染技术优化一个新型的损失函数,取得了在三个数据集上追踪刚性物体方面的最新进展。
Apr, 2023
提出一种基于学习的方法,通过将消除模糊与补全分离开来,实现对快速移动物体的实时检测,并在召回率、精度、轨迹估计和清晰度等方面优于其他方法。该方法可用于实时的快速移动物体检测和大视频集合的检索。
Dec, 2020
该研究提出了一种利用生成模型和自监督损失函数训练的 DeFMO 方法,在仅有单张图像和背景估计的情况下,以高速相机的子帧形式输出物体在各个位置的外观和运动状态,实现了 temporal super-resolution,效果优于现有技术并适用于真实数据。
Dec, 2020
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本文提出了一种高效的深度神经网络方法 ——FMA,计算两个视频帧之间的 Framewise Motion Fields,并对大量对象的边界框进行快速可靠匹配,同时实现 Frame-wise Appearance Features 的学习,以达到实时多目标跟踪并取得与现有最先进方法相竞争的结果。
May, 2019
本研究提出了一种近实时的方法,可以从单目 RGBD 视频序列中对未知物体进行 6 自由度跟踪,并同时进行神经 3D 重建。该方法适用于任意刚体对象,即使视觉纹理基本不存在。该方法的关键在于同时学习神经对象场和姿态图优化过程,以稳健地累积信息以捕捉物体的几何和外观,而不需要其他信息和假设。本方法可以处理具有大的位姿变化,部分遮挡,无纹理表面和高光反射等挑战性序列,而且通过在 HO3D,YCBInEOAT 和 BEHAVE 数据集上的测试,证明本研究方法显著优于现有方法。
Mar, 2023
本篇研究提出使用深度神经网络和可靠的平面追踪技术结合,实时追踪物体的姿态,而无需传感器的预先校准或初始化,实现在移动设备上执行相对尺度 9 自由度跟踪。
Jun, 2020
该论文提出了一种单次操作的方法,可以在不需要多个阶段或检查多个假设的同时,在 RGB 图像中检测对象并预测其 6D 姿态。通过采用新的 CNN 架构和 PnP 算法,该方法可以以 50fps 的速度在 Titan X GPU 上运行,比其他最近的 CNN 方法具有更高的准确性和更适合实时处理。
Nov, 2017
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022