从物体遮挡的单目视频中渲染人类
通过 Wild2Avatar,在遮挡的自然单目视频中呈现出移动人物的视觉外观,该方法通过将场景分解为遮挡、人物和背景三个部分,设计广泛的客观函数以帮助实现人物与遮挡和背景的解耦,并确保人体模型的完整性,通过在自然环境下进行实验证明了该方法的有效性。
Dec, 2023
本文介绍了一种自由视点渲染的方法 - HumanNeRF,它可以在给定的人体复杂运动的单目视频中工作,并且可以使主体在任意新的相机视角或甚至特定帧和身体姿势的全 360 度相机路径下呈现。
Jan, 2022
我们提出了基于 3D 高斯散射的 OccGaussian 方法,其可在 6 分钟内进行训练,并且以高质量 160FPS 渲染具有遮挡输入的人体场景。通过在标准空间中初始化 3D 高斯分布,并在遮挡区域进行遮挡特征查询,提取聚合的像素对齐特征来弥补丢失的信息,然后我们使用高斯特征 MLP 进一步处理特征,并结合面向遮挡区域的损失函数来更好地感知遮挡区域。大量的实验结果表明,我们的方法在模拟和真实世界遮挡场景中实现了与最先进方法相媲美甚至更优的性能,且训练和推理速度提高了 250 倍和 800 倍,我们的代码将提供给研究目的使用。
Apr, 2024
利用高效的 3D 高斯喷粒方法,由预训练的 2D 扩散模型进行监督,提出了 OccFusion,一种用于高效和高保真度人体渲染的方法。通过三个阶段的流程,即初始化阶段、优化阶段和改进阶段,实现了对人体的完整渲染,并在实验中表现出了在渲染遮挡人物方面具有领先水平的性能。
Jun, 2024
本论文提出了一种神经人体表现捕捉和渲染系统,以实现高质量的几何和逼真的纹理重建,尤其是在挑战性的人体物体交互场景下。通过执行分层场景解耦策略,同时进行体积重建和神经渲染人和物体,提出了交互感知的人 - 物捕捉方案,同时提出了以人为重点的物体跟踪,在自由视点下实现了高质量的几何和纹理重建。
Aug, 2021
通过单目视频学习可泛化的人类 NeRF 模型,引入了可见性感知的聚合方案来计算顶点特征,并利用注意机制进一步增强体积特征,用于预测采样点的密度和颜色,同时引入了表面引导采样策略以提高训练和推理的效率。在实验中验证了该方法在广泛使用的 ZJU-MoCap 数据集上的可比性,并在只使用单目视频的情况下,在单目 People-Snapshot 数据集上取得了比现有方法更好的性能。
Aug, 2023
本研究提出了一种基于神经辐射场的高保真度自由视点下人体合成的通用且高效的管道,其中利用几何引导的多视点特征整合方法和渐进式渲染管道通过提供完整的几何体积和预测的密度值来显著提高多个泛化设置下的综合性能和渲染效率。
Dec, 2021
本文提出了一个新的框架,用于从野外视频中重建人体和场景,并在单个视频上提供新的人体姿势和视角渲染的方法。通过训练两个 NeRF 模型(human 和 scene),并依赖现有方法估计人体和场景的大致几何形状,可以从观察空间创建到无关姿态的规范空间的偏移场,进而在规范空间中训练人体模型。我们的方法能够从仅 10 秒的视频剪辑中学习特定主题的细节,包括服装褶皱和配件,并提供在新视角和新姿势下人体的高质量渲染和背景。
Mar, 2022
提出了一种利用低成本深度相机从单视角和稀疏 RGB-D 传感器中捕获任意人物,并从未见过的视角生成逼真渲染的视图合成框架。该方法可重建面部表情,具有良好的鲁棒性和高质量的渲染效果,优于之前的视图合成方法。
Dec, 2021