DLCA-Recon: 动态宽松服装虚拟化重建
本文提出了一种名为 REC-MV 的新方法,可以通过优化 3D 服装特征曲线和表面重建来从单目视频中提取出开放式服装网格,结果显示该方法在多个数据集上表现优于现有方法并且能够产生高质量的动态服装表面。
May, 2023
首次提出从单目视频中恢复高质量可动态调整的服装的方法,通过可学习的服装变形网络和多假设变形模块实现,实验结果表明可生成具有连贯表面细节的高质量动态服装,并可在未见过的姿势下轻松实现动画效果。
Nov, 2023
使用一个人的动态视频,通过引入新颖的组合式人体建模框架,结合显式建模和隐式建模的方法,实现高质量的服装 3D 人体化身建模,解决了缺乏几何和其时间对应关系的 3D 真值数据的挑战,成功地生成了具有运动相关几何和纹理的服装 3D 人体化身。
Dec, 2023
该研究提出了一种结合隐式和显式表达的身体重建方法 SelfRecon,可从单眼自旋人类视频中恢复空间 - 时间一致的几何形状,细节采用可微分神经渲染进行精细处理。
Jan, 2022
在本文中,我们介绍了一种使用非常稀疏的多视角视频(我们的设置中为 4-8 个)生成穿着宽松服装的可动画人类化身的新方法 AniDress。为了在这种情况下捕捉和学习宽松服装的外观,我们采用从基于物理的模拟数据中获得的虚拟基于骨骼的服装绑定模型。通过一组低维骨骼变换,这种模型使我们能够捕捉和渲染复杂的服装动态。技术上,我们开发了一种从稀疏多视角视频中估计时间一致服装动态的新方法。为了利用粗略估计建立逼真的未见状态渲染,我们引入了一个在身体和服装运动上都受条件约束的基于姿势驱动的可变形神经辐射场,提供了两部分的显式控制。实验证明,我们的方法能够呈现高度偏离身体的自然服装动态,并且在未见视角和姿势上具有良好的泛化性能,超过现有方法的表现。代码和数据将公开提供。
Jan, 2024
本文提出了一个高效的三维服装化身重建框架。该框架通过高精度的基于优化的方法和高效的基于学习的方法相结合,以从单个图像中实现高保真度的服装化身重建为目标。通过在规范空间中以基于学习的方式使用隐式模型来学习人的一般形状,并通过以优化方式在姿态空间中估计非刚性变形来细化表面细节,使用超级网络来生成良好的初始化,从而极大地加速了优化过程的收敛。在各种数据集上的大量实验表明,所提出的服装化身重建框架成功地为现实场景中的任意穿着的人类产生了高保真度的化身。
Apr, 2023
本文提出了一种基于学习的模型,利用少量单目视频帧 (1-8 帧) 从移动的人中推断出其个性化的 3D 形状,可在不到 10 秒内达到 5mm 的重建精度。该模型学习预测一个统计体型模型的参数和实例化偏移量,同时加入衣服和头发的形状,具有快速和准确的预测,这得益于其对 T-pose 空间的预测和从上往下和从下往上两个视图预测的结合。该模型仅基于合成的 3D 数据进行学习,可将可变数量的帧作为输入,即使仅有一张图像,也能以 6mm 的精度重建形状。3 个不同数据集的结果表明了本方法的有效性和准确性。
Mar, 2019
CLOTH3D 是第一份大规模的 3D 服装人体序列的综合性合成数据集,并提供了基于条件变分自编码器和图卷积的生成模型,实现了在任何姿势和形状下逼真生成 3D 服装。
Dec, 2019
本研究提出了一种新的端到端学习框架,可以从一张图像中获取多人的详细且具有空间连续性的重建,并能解决多人姿态、遮挡、衣着等问题带来的困难,实现了对穿衣人体在任意姿势下的模型自由_implcicit 3D 重建和同步估计。针对模型和数据集,实验结果表明,该方法与现有的竞争方法相比,具有更高的精度和完整性,呈现了最先进的性能。
Apr, 2021
提出一种新方法,基于动态表面函数网络,利用单目 RGB-D 序列学习个体化身体模型,并使用人体表面多层感知器(MLP)来重构为具有时间连贯性的网格序列并合成姿态依赖性动画。
Apr, 2021