解耦 3D 原型网络以进行少样本概念学习
本文提出了三种针对三维重建少样本的方法,并将类先验有效地整合到模型中,以便考虑类内变异性和强制实施隐式组合结构,从而在少样本场景中显著优于现有基线模型,实验在 ShapeNet 数据集上。
Apr, 2020
本研究中,我们利用深度卷积神经网络架构在 2D 图像和 3D 空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
本文提出一种无监督学习方法,通过观察未标记的多视角视频,学习将一个包含多种物体的复杂场景的单幅图像观察映射到一个三维神经场景表示,可以将该表示分解为可移动和不可移动的部分,并通过神经渲染进行自监督训练,从而实现基于对象的三维表示、新视角合成、实例分割和三维边界框预测等多种下游任务,并通过对象操作(如删除、插入和刚体运动)实现场景编辑。
Jul, 2022
本文提出了基于类代表特征和几何相似性的少样本物体检测和视角估计方法,取得了 PASCAL,COCO,Pascal3D+,ObjectNet3D 和 Pix3D 数据集中的最优结果。
Jul, 2020
该研究提出了一种新的方法,可以同时恢复 3D 对象的几何形状和基于部分的分解,以及它们之间的潜在层次结构,实验证明考虑部分的组织确实有助于推理三维几何。
Apr, 2020
本研究介绍了一种利用概率形状先验的坐标神经表示方法,结合隐式可微渲染,通过两阶段优化过程,成功实现了多视角三维重建中几乎与 3D 可塑性模型方法、视角较多时的非参数方法相当的高保真度的少视角全三维头部重建。
Jul, 2021
本文介绍了一种从自然图像中学习生成 3D 形状的生成模型的全面无监督方法,其中利用 GAN 等深度学习技术实现,从而生成出真实的三维图像,实现了从二维图像向三维图像的转换。
Oct, 2019
提出了一种基于多摄像头的 3D 对象检测框架,使用基于上下文注意力的网络,直接在 3D 空间中进行边界框的预测,实现了全球最佳性能。
Oct, 2021
本文提出了一种名为 3D-SDN 的深度生成模型,该模型可以生成可解释的、富有表现力的、分离的场景表示,能够支持 3D 感知场景操作,并证明该模型比其 2D 版本表现更优秀。
Aug, 2018
本文提出了一种卷积网络,可以仅仅基于单张图像预测出物体的 RGB 图和深度图,并将多幅深度图融合成完整点云后可转换成表面网格来对任意视野下的三维物体进行识别。网络通过合成的三维车和椅子模型进行训练,在有杂乱背景并搭配真实车辆图像的情况下,仍可生成合理的推测。
Nov, 2015