无需关键点的形状和视点
本论文介绍了一种无监督学习方法,将三维形状信息嵌入到单视图图像表示中,通过使用单个2D图像的自监督训练目标,在没有人工语义标签的前提下,鼓励表示捕捉基本形状原语和语义规律,最终学习得到一个强大的表示方法,可以成功进行物体识别和“心理旋转”操作,成果优于相对应的其他无监督学习方法。
Sep, 2017
本文提出一种学习框架,可以从单个图像中恢复物体的3D形状、相机、和纹理,使用一个可变形的3D网格模型来表示形状,在不依赖于地面真值3D或多视图监督的情况下,利用注释的图像集进行训练并学习3D预测机制与可变形模型。作者还展示了可以轻松将语义关键点与预测的形状相关联,并在CUB和PASCAL3D数据集上展示了我们的方法的定性和定量结果。
Mar, 2018
论文提出了一种统一框架,用于解决单幅图像特定类别的3D重建和新3D形状生成的问题。该方法支持弱监督学习,只需要单个实例的2D图像,使用网格作为输出表示,并利用光照信息提高了性能。实验结果表明,该方法在定量度量上与最新的基于体素方法相当或优于,而且结果更加美观,并且在弱监督学习方面表现良好。
Jul, 2018
该研究使用卷积神经网络训练能够从单个图像预测出物体的3D形状和相机姿态的模型,并通过一组pose预测器进行姿势模糊处理,并利用可微分3D点云投影技术来获取高保真度的形状模型。
Oct, 2018
该研究提出了一种新的框架,可以在只有2D图像且每个实例只有一个视角的情况下,从单张图像中进行特定类别的三维重建和新形状的生成,并支持较弱的监督。采用网格作为输出表达方式,利用光照参数和明暗信息进行训练,支持对洼地的物体类别进行学习。通过五项应用评估,发现该方法的性能表现优于现有的一些方法。
Jan, 2019
我们提出了一种自监督的,单视图三维重建模型,通过2D图像和物体的轮廓预测目标物体的3D网格形状、纹理和相机姿势,该方法不需要三维监督,手动注释的关键点,物体的多视图图像或先前的3D模板,通过自监督地学习分类特定图像的部分分割,我们可以在重建网格与原始图像之间有效强制实现语义一致性,从而大大减少了模型在预测物体形状、纹理和相机姿态时的歧义,并且我们的模型可以不需要这些标签而轻松地推广到各种物体类别。
Mar, 2020
该论文提出了一种从单张图像中推断物体的 3D 形状和姿态的学习方法,利用无定型图像集的分割输出进行监督,并采用体素表示和网格化表示相结合的方式进行形状-姿态分解和实例重建。
Feb, 2021
本文提出了一种基于单个RGB图像学习预测隐式3D物体形状表征的新型3D形状重构方法,使用多种无视角注释的单视角图像进行跨类别学习且仅使用标签进行监督,辅以分类度量学习与对抗性和视点正则化技术,取得了ShapeNet-13,ShapeNet-55和Pascal3D +数据集上优于最先进方法的效果。
Apr, 2022
3DMiner是一种从具有挑战性的大规模未标注图像数据集中挖掘3D形状的流程,该方法利用自监督图像表示的最新进展,将具有几何上相似形状但背景、纹理和视点不同的图像聚类,并找到它们之间的共同图像对应关系,再利用这些对应关系获取粗略的相机估计,进而通过渐进式捆绑调整重建方法学习表示底层形状的神经占据场。
Oct, 2023