野外自监督网格预测
使用有前景蒙版的类别级图像集合进行有限监督学习,推断出单个 RGB 图像的物体的 3D 形状、纹理和相机姿态,并展示其在大约 30 个物体类别上的应用可行性。
Jul, 2020
论文提出了一种统一框架,用于解决单幅图像特定类别的 3D 重建和新 3D 形状生成的问题。该方法支持弱监督学习,只需要单个实例的 2D 图像,使用网格作为输出表示,并利用光照信息提高了性能。实验结果表明,该方法在定量度量上与最新的基于体素方法相当或优于,而且结果更加美观,并且在弱监督学习方面表现良好。
Jul, 2018
我们提出了一种自监督的,单视图三维重建模型,通过 2D 图像和物体的轮廓预测目标物体的 3D 网格形状、纹理和相机姿势,该方法不需要三维监督,手动注释的关键点,物体的多视图图像或先前的 3D 模板,通过自监督地学习分类特定图像的部分分割,我们可以在重建网格与原始图像之间有效强制实现语义一致性,从而大大减少了模型在预测物体形状、纹理和相机姿态时的歧义,并且我们的模型可以不需要这些标签而轻松地推广到各种物体类别。
Mar, 2020
该研究提出了一种新的框架,可以在只有 2D 图像且每个实例只有一个视角的情况下,从单张图像中进行特定类别的三维重建和新形状的生成,并支持较弱的监督。采用网格作为输出表达方式,利用光照参数和明暗信息进行训练,支持对洼地的物体类别进行学习。通过五项应用评估,发现该方法的性能表现优于现有的一些方法。
Jan, 2019
通过使用与图像相关的 shelf-supervision 模型对配对的 RGB 和 LiDAR 数据进行无监督预训练,我们提出了一种能够生成零样本 3D 边界框的点云表示方法,这种方法在半监督检测中能够显著提高检测准确性,尤其适用于 LiDAR-only 和多模态 (RGB + LiDAR) 检测。我们在 nuScenes 和 WOD 上展示了我们方法的有效性,并在有限数据环境中明显改进了之前的工作。
Jun, 2024
提出了一种深度学习技术,用于从单个图像进行三维物体重建。与以往的方法不同的是,该方法使用只有单一视角的图像进行训练,并具有自我监督学习能力,可实现与使用更多监督信息的方法相媲美的性能。该方法还可以进行测试时间优化。
May, 2020
该篇论文提出一种无需直接监督的学习单视角形状和姿态预测的框架,通过利用未知姿态的多视角观察信号进行训练,并在训练中在同一实例的两个视图之间强制实施几何一致性来独立预测形状和姿态,从而学习在新出现的标准框架中预测形状和相应的姿态预测器。在使用 ShapeNet 数据集时,取得了与先前依赖更强监督形式的技术相当的鼓舞人心的竞争成绩。此外,还展示了该框架在现实环境中的适用性,该环境超出了现有技术范畴:使用由在线产品图像组成的训练数据集,在这些数据集内,底层的形状和姿态是未知的。
Jan, 2018
本研究利用弱监督的方法,通过多视角几何约束来同时估计 3D 的标准形状和 6 自由度姿态,解决了学习未对准和真实世界部分点云的情况下,利用大量数据进行 3D 形状补全的问题。实验证明,学习姿势估计可以促进部分点云的配准。
Aug, 2020
本文提出一种学习框架,可以从单个图像中恢复物体的 3D 形状、相机、和纹理,使用一个可变形的 3D 网格模型来表示形状,在不依赖于地面真值 3D 或多视图监督的情况下,利用注释的图像集进行训练并学习 3D 预测机制与可变形模型。作者还展示了可以轻松将语义关键点与预测的形状相关联,并在 CUB 和 PASCAL3D 数据集上展示了我们的方法的定性和定量结果。
Mar, 2018
本研究提出了一种基于多视图图像的方法,用于识别三维场景的对象形状和布局,通过在大型数据集上的实验,证明该方法可扩展应用于现实图像,并与依赖三维信息的方法相比,表现得更好。
Jun, 2022