点画法 3D 表面重建
使用深度神经网络从单一图像中重建 3D 点云坐标,设计了面对真实世界几何转换不变性和地面真实性模糊的问题的新型方法,包括条件形状采样器,能够预测多个可能的 3D 点云。在实验中表现优异,不仅在单图像 based 3D 重建基准测试中胜过现有技术,也在形状补全方面表现出强大性能,有望在多个可能性预测方面表现出色。
Dec, 2016
该论文提出了一种基于点云的物体表面重建方法,使用编码器 - 解码器网络通过单张图片生成多种视角下的点云,并且使用几何损失函数提高表面拟合准确性。
Nov, 2018
提出了一种深度学习技术,用于从单个图像进行三维物体重建。与以往的方法不同的是,该方法使用只有单一视角的图像进行训练,并具有自我监督学习能力,可实现与使用更多监督信息的方法相媲美的性能。该方法还可以进行测试时间优化。
May, 2020
本文提出了一种通过一个可视化的二维图像还原立体物体的彩色与形状的方法,该方法为 an end-to-end trainable framework,能够同时处理 shape recovery 和 surface color recovery 问题,并利用一种叫做 Mean Squared False Cross-Entropy Loss 的新方法来处理原有模型表象的稀疏性问题。
Apr, 2018
本文提出了一种卷积网络,可以仅仅基于单张图像预测出物体的 RGB 图和深度图,并将多幅深度图融合成完整点云后可转换成表面网格来对任意视野下的三维物体进行识别。网络通过合成的三维车和椅子模型进行训练,在有杂乱背景并搭配真实车辆图像的情况下,仍可生成合理的推测。
Nov, 2015
通过利用内在分解指导、瞬态 - 单模先验指导和视图增强来解决光照不一致、几何不对齐和视图稀疏等问题,我们提出了一种新的 3D 重构框架,该框架能够将多视图图像生成与神经网络基于体积有符号距离函数的单一图像到 3D 对象重建相结合。在各种数据集上评估我们的方法,并在定量和定性评估中展示了其卓越性能,从而在 3D 物体重建方面取得了显著的进展。与最新的最先进方法 Syncdreamer 相比,我们将 Chamfer 距离误差降低了约 36%,将 PSNR 提高了约 30%。
Jan, 2024
本文提出了一种新的 3D 生成建模框架,使用 2D 卷积运算从多个视角预测 3D 结构,并联合应用几何推理和 2D 投影优化来高效地生成以密集点云形式呈现的物体形状,并引入伪渲染器来合成优化的新深度图,在单张图像 3D 对象重建任务中表现了优越的形状相似性和预测密度。
Jun, 2017
本文介绍一种神经网络架构,通过联合学习未知几何形状、相机参数和神经渲染器,能够高质量、高精度、高细节地实现多角度 3D 表面重建。该方法通过零级集的神经网络表示几何形状,并采用基于渲染方程的神经渲染器来预测表面上的光的反射情况,具有广泛的光照和材质建模能力。
Mar, 2020
本研究使用神经网络从多视图中学习生成高质量且兼具多视图一致性的 3D 参数曲面,同时保持准确的图像像素到 3D 表面点的对应关系,能够重建具有丰富几何和外观的纹理信息形状,并在公共数据集上获得优于先前工作的定量和定性结果。
Aug, 2020
使用单张草图图像自动生成详细的三维表示,通过多模态输入进行引导,无需大量训练样本。该解决方案可供领域专家交互式地重建丢失文物可能的外观。
Feb, 2024