PVN3D:一种深度点间 3D 关键点投票网络用于 6DoF 姿态估计
提出了一种名为 MV6D 的多视角 6D 姿态估计方法,该方法使用多个视角的 RGB-D 图像,通过 DenseFusion 层融合每个视角的图像,可以精确预测杂乱场景中所有对象的 6D 姿态.
Aug, 2022
利用单个 RGB-D 图像,我们引入了一种新颖的方法来计算物体的 6DoF 姿态。通过密集对应,我们回归每个可见像素的物体坐标,从而有效降低输出空间并取得出色的性能,在 6D 姿态估计中胜过大多数先前的方法,特别是在遮挡场景中具有显著改进的优势。
May, 2024
本文提出了一种基于像素准确度的向量回归方法来精确估计单个 RGB 图像中物体的 6 自由度位姿,并使用 RANSAC 通过向量投票来有效地处理遮挡和截断问题,该方法的实验证明在 LINEMOD,Occlusion LINEMOD 和 YCB-Video 数据集上优于现有的方法,并且具有实时检测的高效性。
Dec, 2018
本文提出了一种基于深度点集网络和 Hough 投票的端到端三维物体检测网络 VoteNet,通过纯几何信息在两个大型真实三维扫描数据集 ScanNet 和 SUN RGB-D 上实现了最先进的三维检测,且模型设计简单,模型大小小,效率高,并且不依赖于颜色图像。
Apr, 2019
本文提出了一种基于学习的方法,用于在点云数据中完成刚性物体的 6 自由度姿态估计,并且相比于使用 RGB 信息进行物体检测的方法,本方法可以通过初始检测到最终转换估计阶段处理无序的点集来实现准确的姿态估计,有些情况下还能够超过在相同数据上训练的最先进的方法.
Dec, 2019
通过提出的全新深度融合转换块 (DFTr),结合了全局增强特征提取和语义相似性建模的算法进行一张 RGBD 图像的 6D 物体姿态估计。此外,还引入了一种新颖的加权矢量投票算法,实现了非迭代的全局优化策略,以精确定位三维关键点,并实现接近实时的推断,实验证明该方法在多个基准测试中优于现有方法。
Aug, 2023
本文提出了一种新的方法,使用卷积网络 (ConvNet) 预测语义关键点结合可变形形状模型,从单张 RGB 图像中估计物体的连续六自由度 (6-DoF) 姿态 (三维平移和旋转),可以应用于基于实例和类别的姿态恢复,且无论是纹理还是无纹理对象均可。实验结果表明,该方法可在杂乱背景下准确地恢复实例和类别物体的 6-DoF 姿态,并在大规模 PASCAL3D+ 数据集上显示出最先进的精度。
Mar, 2017
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
通过训练图网络选择一组分散但具有相似分布投票的关键点,从而提高姿势估计的准确性和效率。通过回归网络学习关键点算法,所学习的投票可以与之前的启发式算法相比更准确地回归关键点位置。实验结果表明,KeyGNet 选择的关键点在所有七个数据集上的所有评估指标都提高了准确性,特别是在具有挑战性的 Occlusion LINEMOD 数据集上。当使用 KeyGNet 的关键点进行单物体到多物体的训练时,性能明显提高,从而消除了 SISO-MIMO 差距。
Aug, 2023
本文介绍了一种使用可微分 RANSAC 层和基于不确定性的多视图 PnP 求解器对基于立体图像的物体姿态估计问题进行解决的方法,并在公开数据集上进行了评估,取得了与其他最近方法相比的最新结果。
Jul, 2023