本文提出了 KeypointGAN 方法,通过从未标注的视频和基于弱领域先验知识的学习,仅使用单个图像就可以识别物体的姿态,利用一个新的物体的双重表示方法,并且这种方法可以在不使用标注图像的情况下获得最新的成果。
Jul, 2019
该论文提出了一种从单个 RGB 图像中估计物体连续 6-DoF 姿态的方法,该方法结合了经卷积网络预测的语义关键点和可变形的形状模型,同时采用了半自动数据生成技术来训练可学习组件,在实验中该方法达到了与现有技术相当的结果。
Apr, 2022
利用物体分类内部几何规律的数据驱动姿态估计方法。首先,从 2D RGB 图像学习物体部分的姿态不变局部描述符。将这些描述符与来自固定3D 模板的关键点结合使用,生成给定单眼实际图像的关键点对应图。最后,使用这些关键点对应图,预测物体的3D 姿态。该方法在多个真实环境的视角估计数据集,如 Pascal3D + 与 ObjectNet3D 上的表现达到最佳水平,并且我们公开了所使用方法的代码以鼓励再生研究。
Sep, 2018
该研究使用卷积神经网络训练能够从单个图像预测出物体的 3D 形状和相机姿态的模型,并通过一组 pose 预测器进行姿势模糊处理,并利用可微分 3D 点云投影技术来获取高保真度的形状模型。
Oct, 2018
本论文提出了一种新的自我监督方法,通过训练不带标签的典型姿势图像数据集和未成对的 2D 姿势数据,从而实现了从单幅图像预测 3D 人体姿势的网络映射,可用于快速应用于其他人工结构(例如动物)的姿态估计。
Apr, 2023
该研究提出了一种基于关键点的方法,通过一个 RGB 图像作为输入,对已知类别内的未知目标实例进行目录级别的物体位姿估计,采用单阶段神经网络,并在 Objectron 基准测试中表现出比现有方法更好的性能
Sep, 2021
提出了一种深度学习技术,用于从单个图像进行三维物体重建。与以往的方法不同的是,该方法使用只有单一视角的图像进行训练,并具有自我监督学习能力,可实现与使用更多监督信息的方法相媲美的性能。该方法还可以进行测试时间优化。
May, 2020
该研究提出了一个基于自监督学习框架和 SE (3) 等变点云网络的类别级别物体位姿估计方法,可在没有真值姿态注释、CAD 模型和多视图监督的情况下,从单独的 3D 点云中进行类别级别的六自由度物体位姿估计, 并在多个基准测试上验证了该方法的有效性。
Oct, 2021
本文介绍了一种半监督的方法,使用少量标记图像和大量未标记图像同时学习关键点热图和姿态不变的关键点表示,关键点表示的语义一致性约束加以保证,并通过特征空间将图像及其扩充副本的关键点表示紧密地联系在一起,以实现对于人类和动物身体特征点的本土化定位,并在多项基准测试中显著优于先前的方法。
Jan, 2021
我们引入了一种扩散驱动的自监督网络,用于多目标形状重建和分类姿态估计,并且仅利用形状先验信息,通过点卷积层和图卷积层来捕捉姿态特征和形状信息,通过预训练和精炼的自监督训练范式训练我们的网络。实验证明,我们的方法明显优于最先进的自监督分类级别基准,并且甚至超过一些全监督实例级别和分类级别方法。
Mar, 2024