FSD:快速自监督单一 RGB-D 到分类三维物体
使用无监督学习的方法进行单眼 RGB 数据下的 6D 物体位姿估计,作者训练了一个神经网络模型,通过真实 RGB-D 数据的自监督模式来提高模型的性能表现,并证明了该方法能够显著地优化模型的性能,超过了其他使用合成数据或领域适应技术的方法。
Apr, 2020
提出了一种基于多视角和弱标签的纯 RGB 序列的自监督 3D 物体检测方法,其在 KITTI 3D 数据集上的性能与使用激光雷达或立体图像的最先进的自监督方法相当。
May, 2023
该论文提出了一个自超视自学的物体分割系统,其训练过程利用了点云的超分割结果,利用图匹配算法和点云配准结合检测出 3D 假标签上的再现物体模式并生成 2D 掩码。实验证明,该方法在真实和合成的视频数据集上的表现优于现有的无监督方法。
Apr, 2023
无需辅助信息,我们提出了一种使用纯 RGB 图像进行训练的 6D 物体姿态估计方法,通过利用来自多个不同视角的合成至实图像对中的几何约束(以像素级流一致性的形式表示)进行精化策略,从合成图像中获得初始姿态估计,并使用动态生成的伪标签。在三个具有挑战性的数据集上进行评估,结果表明我们的方法明显优于最先进的自监督方法,无需 2D 注释或额外的深度图像。
Aug, 2023
本论文提出了一种基于单个视角的 RGB-D 观测对多目标 3D 重建、6D 姿态和大小估计的简单、高效、端到端的方法,并且基于 ShapeNet 和 NOCS 数据集进行了广泛实验,在新颖实际世界的目标实例 6D 姿态中获得了 12.6% 的绝对改进。
Mar, 2022
提出了一种可转移的半监督 3D 目标检测模型,通过训练存在强类别和弱类别两个不相交的物体类别集的数据,使用放松重投影损失、Box-to-Point Cloud Fit 网络等技术,从强类别向弱类别传递 3D 信息,并在 SUN-RGBD 和 KITTI 数据集上取得了优异的成果。
Apr, 2019
我们提出了一种基于实时 RGB 的管道来实现物体检测和六自由度姿态估计。我们的创新性三维方向估计基于域随机化训练的三维模型的模拟视图,采用了变体的降噪自编码器。我们称之为增强自编码器相较于现有方法具有多个优点:它不需要真实标注的训练数据,适用于各种测试传感器,固有的处理物体和视角对称性。我们提出了一种隐式表征物体方向的方法,定义了潜在空间内的样本,而不是学习从输入图像到对象姿态的显式映射。我们的管道在 T-LESS 数据集的 RGB 和 RGB-D 领域均取得了最新成果。我们还在 LineMOD 数据集上进行评估,其中我们可以与其他合成训练方法竞争。当物体偏离图像中心时,通过纠正三维方向估计来进一步提高性能,并展示了扩展结果。
Feb, 2019
我们提出了一种新颖的方法,在单个快拍中从 RGB 数据中检测 3D 模型实例并估计其 6D 姿势。为此,我们扩展了流行的 SSD 范例,以涵盖完整的 6D 姿态空间,并仅在合成模型数据上进行训练。我们的方法在多个具有挑战性的数据集上竞争或超越了目前领先的 RGB-D 数据利用方法。此外,我们的方法在大约 10Hz 左右产生这些结果,速度比相关方法快多了。为了可重现性,我们公开可用我们的训练网络和检测代码。
Nov, 2017
本文介绍了一种利用多视角 RGB-D 数据和自监督数据驱动学习的方法,通过全卷积神经网络分割和标记场景中的多个视角,并将预先扫描的 3D 物体模型适配到分割结果中,以获得 6D 物体位姿的方法。利用自监督方法生成大量标记数据集,最终实验结果表明该系统能够可靠地估计各种环境下对象的 6D 姿态。
Sep, 2016
本文提出了一种从单一 RGB 图像中检测和重构多个 3D 物体的方法,通过逐步优化检测、对齐和形状重构,选择最佳的几个候选形状,并采用轻量化的重构技术进行快速、端到端的训练。
Dec, 2020