ObPose:利用姿态进行三维物体中心场景推理
我们提出了一种可伸缩的无监督面向对象中心的 3D 场景表示学习方法,通过学习在局部对象坐标系统中视角不变的 3D 对象表示,从而推断和维护 3D 场景的对象中心表示,并优于以前的模型。
Sep, 2023
ObSuRF 为将场景单张图像转化为一组 Neural Radiance Fields (NeRFs) 三维模型的方法,可用于多视角的 CLEVR 以及将场景 populate 为 ShapeNet 模型的数据集中,在不需要监督的情况下实现了对场景中的物体进行分割,并且在三个二维图像分割基准测试中表现出与现有技术相同或更好的效果。
Apr, 2021
该研究旨在使用卷积神经网络检测和定位 RGB-D 场景中的物体,然后使用 3D 模型替换它们,相对于目前最先进的算法,该方法在 3D 检测任务中表现出 48%的相对改进,并且速度更快。
Feb, 2015
我们提出了一种新的学习三维可变形物体姿态表示的方法,该方法能够在物体的不同标识和姿态之间进行解耦,并通过单一对象的变化实现多样化的姿态。通过设计姿态提取器和姿态应用器来实现姿态解耦、生成模型的紧凑性和可转移性,并利用隐式姿态应用器来提取姿态信息和实现目标对象的形状变化。通过实验验证了姿态转移和生成多样性变形形状的最新性能。
Jun, 2024
从弱标记数据中学习姿态估计的方法,通过使用 NeRF 隐式学习物体形状,结合 CNN 使用对比损失学习视图不变特征,从而估计姿态。
Jun, 2024
提出了一种基于多视角视野的实时视觉系统,可以从单个 RGB-D 视角提出三维物体姿态建议,并且根据多个视角的姿态估计和非参数占用信息积累这些姿态估计,从而对接触的多个已知对象进行一致的、不相交的姿态估计。应用于实时机器人应用程序中,只使用机载 RGB-D 视觉,机械臂可以精确而有序地拆卸复杂的物体堆放,展示了其准确性和鲁棒性。
Apr, 2020
本文提出一种基于分割的 6D 姿态估计框架,使用关键点检测获取局部姿态预测,并根据置信度预测将这些姿态候选融合成可靠的 3D-to-2D 对应关系,从而在多个低纹理物体相互遮挡的情况下获得最优姿态估计,其采用简单且高效的架构实现实时性能。
Dec, 2018
本文提出了一种使用对比学习和隐式姿态嵌入的 3D 感知生成对抗网络优化技术。通过重新设计鉴别器,从而消除对基准相机姿态的依赖性,使其更好地捕捉给定图像的隐式姿态嵌入,并在姿态嵌入上进行对比学习,实验结果表明在多个物体类别和不一致的基准相机姿态数据集上显著优于现有方法。
Apr, 2023
通过深度卷积神经网络实现室内场景理解的任务。为了克服 RGB-D 训练数据不足的问题,采用实时渲染技术生成合成室内场景,并通过迁移学习的方式使得模型能够处理具有高度挑战性的真实场景。该神经网络具备较短的运行时间,可同时估计类别、姿态和位置等参数。
Aug, 2015
本研究通过利用深度学习网络预测地物高度和从静态影像中预测光流等方法,开发了一种地心极位姿的编码方法,并训练了一个深度网络来计算该表示方法,并且在航空激光雷达数据的监督下实现了高密度表示,实验表明该方法能 大幅提高物体定位的准确性和从非常不同视角拍摄的多个图像的精确对齐,在斜视卫星图像的语义分割任务中具有较好的应用潜力。
Jul, 2020