SurfelWarp: 高效的非体积化单视角动态重建
该研究解决了从实时 RGB-D 视频中重新构建网格的问题,使用表面小波云,通过异步重新三角化以重构表面网格,并支持强烈变化的扫描分辨率。
Oct, 2018
本文提出一种新颖的密集 Surfel Mapping 系统,采用稀疏 SLAM 系统估计相机姿态,并将强度图像和深度图像融合成全局一致模型,具有运行时效率高、内存效率高、融合时间 O (1) 等优点,可用于建立从房间尺度到城市尺度的场景,经 KITTI 数据集和自主飞行实验验证其性能均能达到全局一致且可实时处理,代码可供社区使用。
Sep, 2019
通过使用单个消费级 RGB-D 传感器以实时速率进行动态几何形状的重建,我们提出了一种新的方法,该方法不需要预定义的形状模板,并且在扫描过程中从头开始构建场景模型。采用了体积表示法对几何和运动进行参数化,并且基于提取的稀疏颜色特征与密集深度约束公式相结合实现了运动跟踪。从而保证了准确跟踪并大大降低了标准模型到深度对齐固有的漂移。同时,我们还将寻找空间最佳变形视为非线性正则化变分优化问题,并通过在本地平滑和靠近输入约束的同时实现了数据并行的翻转优化策略。研究结果表明,即使在快速运动和缺乏几何特征的场景下,也能实现稳健的跟踪。
Mar, 2016
通过利用深度、表面法线和 RGB 损失来改善重建保真度和优化时间的缺乏多视图线索的非刚性表面的高保真度三维建模的无模型神经隐式表面重建方法 DynamicSurf。
Nov, 2023
InfiniTAM 是一个新的统一框架,它可以快速灵活地进行 3D 重建,基于 KinectFusion 方法和单目 SLAM 方法,使用截断有符号距离函数来表示体积模型,提供了一系列组件来实现可扩展的 3D 重建。
Oct, 2014
本论文介绍了一种名为 Vidu4D 的重建模型,通过使用动态高斯 Surfels 技术实现从单个生成的视频中准确重建 4D 表示,解决了非刚性运动和帧畸变等挑战,从而创建具有空间和时间一致性的高保真虚拟内容,并在外观和几何上展示了高保真的文本至 4D 生成。
May, 2024
通过多视角深度估计方法实现了精确简易的三维重建,在 ScanNet 和 7-Scenes 等数据集上的效果已经超过目前最先进的深度估计算法。
Aug, 2022
本文提出了一种用于在 RGB-D 传感器上进行大规模 3D 重建的实时表面矫正方法,该方法通过实时估计相机运动并在全局姿势图优化中进行精调来纠正可能出现的表面偏差,能够在仅使用单个 GPU 的情况下实现大型环境的实时表面纠正,相比最新技术而言,具有更高的运行时效率并且需要显著更少的内存。
Sep, 2017
介绍了一种新型的场景表示 ——DeepSurfels,它能够结合几何和外观信息,并且可以很好地更新外观信息并且易于与机器学习方法相结合。同时,我们还提出了一种端对端的可训练在线外观融合管线,它可以将 RGB 图像的信息融合到所提出的场景表示中,并且比传统的纹理映射方法以及最近的基于学习的技术都表现出更好的运行时间、推广能力和可扩展性。
Dec, 2020
本文探讨了在没有对应关系的情况下,如何从 3D 点云序列中重构出时间连贯的表面。为了解决这个具有挑战性的任务,我们提出了 DynoSurf,这是一个融合可学习变形场和模板表面表示的无监督学习框架。具体而言,我们设计了一种基于可变形四面体表示的粗到细的学习模板表面的策略。此外,我们提出了一种基于可学习控制点和混合权重的可变形表示,可以在保持局部形状一致性的同时非刚性地变形模板表面。实验结果表明,DynoSurf 相对于当前最先进的方法具有显著的优势,展示了其作为动态网格重构强大工具的潜力。该代码可以公开获取于此链接。
Mar, 2024