动态点场
为了解决现有算法在处理无控制或长时间场景时的困难以及需要针对每个新场景进行大量训练时间的限制,我们提出了 DynPoint 算法,用于实现无约束单目视频的快速合成新视角。该算法通过预测相邻帧之间的显式 3D 对应关系来实现信息聚合,并利用这些对应关系来从多个参考帧到目标帧中聚合信息,从而实现快速准确的目标帧视角合成。实验证明,与以往方法相比,我们的方法在加速训练时间方面取得了显著的改进,通常为数量级的提高,并且在处理长时间视频时显示出较强的鲁棒性,并无需学习视频内容的规范表示。
Oct, 2023
该论文提出了一种基于静态基于点的辐射场的新颖可控人体动作合成方法,通过编码点云转换来应用变形,并利用奇异值分解估计局部旋转以使渲染结果与规范空间训练一致。实验表明,我们的方法在精细级复杂变形方面明显优于现有技术,且可推广到除人物之外的其他 3D 角色。
Oct, 2023
本研究提出了一种基于点的方法,使用可学习的神经描述符来编码局部几何和外观信息,并学习深度渲染网络生成具有照片般逼真感觉的场景视图,同时避免显式表面估计和网格化,并适用于各种复杂场景,包括使用 RGB-D 传感器与标准 RGB 相机进行扫描的场景。
Jun, 2019
基于连续点卷积的新型 U-net 架构能够自然地嵌入 3D 坐标信息,并通过已建立的下采样和上采样过程进行多尺度的特征表示,从而有效地改进了基于神经网络的三维物体动态建模方法。
Apr, 2024
通过具有个性化、三维可动角色的单目摄像头获取数据,在建模动态、细粒度服装变形方面存在挑战。本文提出了一种名为 ' 神经表面场 ' 的新方法,用于从单目深度数据中建模穿着服装的三维人物,以超越现有方法的局限性,具有计算效率高、网格连贯性好以及能够重建任意分辨率网格等优势。
Aug, 2023
通过引入点云动态辐射场(Point-DynRF)的新框架,该论文解决了动态辐射场几何一致性仅限于相邻输入帧的问题,并通过训练神经点云和动态辐射场的全局几何信息和体积渲染过程来优化辐射场和几何代理,从而相互补充。实验证明了该方法的有效性。
Oct, 2023
该研究论文介绍了一种从单目视频中进行动态新视图合成的新方法,通过将场景表示为动态神经点云,利用数据驱动的先验信息和快速可微分光栅化器和神经渲染网络,实现高质量的合成图像。
Jun, 2024
提出了一种通过神经明确表面(NES)对动态人物进行有效建模的技术。该技术利用隐式神经场显式地表示,以提高内存和计算效率。通过隐式方法进行训练并结合显式渲染界面,利用新提出的基于光栅化的神经渲染器进行高效渲染,实现了材质颜色查询的优化,减少了冗余和计算负载。该方法在速度和内存开销方面有显著改进,同时能够描述动态人体几何形态与纹理。
Aug, 2023
本文提出了一种通过自适应空间划分生成细胞复合体、利用深度神经网络了解区域内占用情况、通过组合优化提取建筑物外表面的新型框架来从点云中重建紧凑、完全、多边形建筑模型的方法,并通过实验表明该方法具有较高的保真度、紧凑性和计算效率。
Dec, 2021