神经网络中用于服装碰撞处理的排斥力单位
本文提出了一种新的生成模型,用于 3D 服装变形,能够学习一种数据驱动的虚拟试穿方法,并成功地解决了服装和身体之间的碰撞问题。通过使用服装的规范空间来训练生成模型,实现了一种自我监督的碰撞术语,可以可靠地解决服装和身体之间的相互渗透。
May, 2021
本文提出了一种自监督学习动态三维服装变形的方法,通过基于优化方案的物理模型训练神经网络,实现无需预先计算数据,节省大量时间和成本,并成功应用于包括动态变形和精细皱纹在内的交互式服装建模。
Apr, 2022
通过物理嵌入学习框架,使用卷积神经网络代表物体之间的空间相关性,并通过三个分支学习布料物理的线性、非线性和时间导数特征,模型通过与传统模拟器或子神经网络相结合,测试在不同的布料动画案例中达到与基准值的一致性和预测的真实性,同时提高了推理效率,可与其他视觉细化技术整合应用于三维布料动画。
Mar, 2024
使用深度形状表示,在单个图像中使用可学习的 Anchored Unsigned Distance Function(AnchorUDF)表示 3D 服装模型,通过预测无符号距离场(UDF)来实现开放服装表面建模和更好的控制拓扑结构,使用像素对齐的本地图像特征和一组锚点来富化查询点的 3D 位置特征,实验证明 AnchorUDF 在单视图 3D 服装重建方面具有最先进的性能。
Aug, 2021
本文提出了一种新颖的双向分形交叉融合神经网络(BiFCNet)用于语义分割,使得机器人能够识别出可抓取的区域以提供更多抓取可能性,同时还提出了一种基于对抗方法的数据增强方法,最后基于衣服平整度量的分割区域抓取点选择策略。在公共数据集 NYUDv2 上评估这种方法,取得与目前最先进模型相当的表现,并且通过对机械臂的抓取和展开实验进行了验证,获得了 84% 的成功率。
May, 2023
本文提出了 DeepCloth,它是一个针对服装表示、重建、动画和编辑的统一框架,它包含了三个组件:拓扑感知的 UV 位置图、连续特征空间中的嵌入和服装动画方法。这个方法可以实现更加灵活、通用的 3D 服装数字化框架。
Nov, 2020
该研究提出一种适用于带衣物人体建模与动画的联合隐式函数 (part-based method),包括骨架初始化和稳定分区方式以及非刚性变形算法,采用相对位置权重来定义混合权值以防止神经隐式函数中的反向 LBS 常规化问题。相关实验表明,该方法对 CAPE 和 ClothSeq 数据集的还原和动画具有显著的效果。
Jul, 2022
利用深度学习技术和隐含形状学习的力量,提出一种新颖的几何推断框架 ReEF,通过将显式模板与单张图片生成的整体隐式场进行匹配,重建具有拓扑一致性的分层服装网格,实验表明我们的方法在单张图像重建方面优于同类方法并能够为进一步的内容创作提供高质量的数字资源
Mar, 2022