使用隐式场景表示的通用姿态估计
本研究提出了一种通过将卷积网络与姿态机器学习框架相结合的系统设计来学习图像特征和图像相关的空间模型,以实现姿态估计的任务,并解决了训练过程中梯度消失的问题,其通过提供自然的学习目标函数来约束学习过程,最终在MPII, LSP和FLIC等标准基准测试中实现了最先进的性能表现并超越了竞争方法。
Jan, 2016
本文研究如何通过活动感知训练改进基于域随机化的姿态估计方法,通过移动机器人获取更精准的目标位姿信息,并展示在机器人手持物品移动、环境中参考物体移动或者摄像头在物品周围移动的多种场景下能够显著提高标准姿态估计的准确度。
Mar, 2019
我们提出了一种完全通用的深度姿态估计方法,通过动态条件姿态估计和目标物体的3D模型表示相结合,能够对不属于预定义类别的自然实体进行训练并将其推广到全新类型的3D对象。
Jun, 2019
提出了一种可扩展的对象姿态估计方法,使用多个三维模型的模拟 RGB 视图进行训练,并使用所谓的“多路径学习”技术,涉及共享编码器和不同解码器,从而实现对不同实例的通用编码器的训练。在多个数据集上实现了最先进的 6D 目标检测结果。
Aug, 2019
提出一种名为 SRNet 的拆分和重组方法来更好地预测罕见和未知的人体姿势,通过拆分为本地区域,使用单独的网络分支进行处理,并在低维向量中重新组合全局上下文来维护全局一致性。
Jul, 2020
该研究提出了一种基于关键点的方法,通过一个RGB图像作为输入,对已知类别内的未知目标实例进行目录级别的物体位姿估计,采用单阶段神经网络,并在Objectron基准测试中表现出比现有方法更好的性能
Sep, 2021
本文介绍了一个新的数据集,用于6-DoF姿态估计已知物体,在机器人操作研究方面重要。数据集由一组玩具杂货物品组成,旨在方便机器人抓取和操纵,提供了这些物品的3D模型和RGBD图像,可用于产生合成训练数据,并提出了一个新的姿态评估指标ADD-H。
Mar, 2022
该论文提出了一种从单个RGB图像中估计物体连续6-DoF姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
该研究提出了一种基于单个对象检查实现类别级姿态估计的方法,通过利用多视角对应关系从而为未见过的对象的姿势估计提供更精确的结果,并展示了该方法在连续学习环境下的应用。
May, 2023
通过利用少量的标签数据(即相机姿态),本文提出了一种学习方法,将这些标签与刚性对齐相结合,学习场景的三维几何表示,并将其用于估计相机的六自由度姿态,从而提高了定位的准确性。
Dec, 2023