混合表示下的极端相对姿态网络
提出了一种使用深度神经网络处理 RGB-D 扫描数据的方法,该方法可以处理极端的相对位姿变换,且在相对位姿估计和场景完成方面都达到了更好的效果。
Dec, 2018
本文提出了一种基于卷积神经网络的方法来估计两个相机之间的相对姿态,该方法采用来自两个相机的 RGB 图像作为输入,并直接输出相对旋转和平移。与 SURF、ORB 这些广泛使用的局部特征方法相比较,该方法采用端到端的方式训练,利用大规模分类数据集进行迁移学习,结果表明相对基准线有明显的改进。此外,本文还介绍了一种包含空间金字塔池化 (SPP) 层的网络结构变体,并证明进一步提高了性能。
Feb, 2017
用 RGB-D 参考图像的 2.5D 形状、现成可微分渲染器以及 DINOv2 预训练模型提取的语义线索为基础,无需标记和训练,提出了一种新颖的可推广的三维相对姿态估计方法,通过渲染与对比新的 RGB 和语义地图,实现了只需单个 RGB-D 参考图像可用于未见过的对象的姿态估计。
Jun, 2024
本文介绍了使用深度神经网络从原始图像像素中获取相对相机姿态估计的任务。提出的 RPNet 网络以成对的图像为输入,并直接推断相对姿态,无需相机内 / 外参数。通过使用 Cambridge 地标数据集上的实验结果表明,相对姿态的全翻译矢量的恢复很有前途,而且在传统方法不稳定的情况下更加准确和稳定。RPNet 是恢复相对姿态中全翻译矢量的首次尝试。
Sep, 2018
本文提出了一种基于神经网络的新型三维人体姿态估计算法,采用关系网络的结构来捕捉不同身体部位之间的关系,并使用每对不同身体部位生成的特征的平均值进行 3D 姿态估计,提出的网络在 Human 3.6M 数据集中实现了最先进的性能,并能在缺失关节的情况下有效地产生可信的结果。
May, 2018
本研究提出了一种基于姿态回归网络和图神经网络相结合的视觉重新定位方法,可在没有内参信息的情况下达到与绝对姿态回归网络相当的准确性,同时保持相对姿态回归模型的高测试速度和对非训练场景的适用性。
Apr, 2021
本文提出了一种利用 RGB-D 图像进行弱监督训练的网络,用于多人绝对姿态估计,可缓解缺乏大规模、多样化数据集的问题,并在多个数据集中实现了持续的错误率改进与在 MuPoTS-3D 数据集上的全球领先结果
Apr, 2020
通过单个参考视图与查询图像之间的相对物体姿态估计,我们提出了一种基于假设和验证框架的新方法,并引入了一种 3D 感知验证,以衡量可靠性,证明了我们方法在相对姿态估计和处理未见过的物体时的鲁棒性。
Oct, 2023
我们提出了相对位姿回归的几种新度量方式并给出了一种新的姿态回归网络,将其与传统方法比较,结果表明新的度量方法比传统方法更稳健,并且我们的网络在单个场景训练模型后,在其他场景上的性能损失很小。
Sep, 2020