基于深度混合自学习的全三维网格生成
提出一种利用自监督的方法,将部分和嘈杂的RGB-D扫描转换为高质量的3D场景重建,从而实现预测未观测到的场景几何形状,并通过新的3D稀疏生成神经网络架构来生成高分辨率的3D场景表面并提高重建质量。
Nov, 2019
本研究提出了第一种用于生成有纹理的3D网格的生成模型,并且引入了一种全新的3D网格生成过程,以保证不会出现自交问题,我们在合成数据和自然图像上进行了广泛的实验,结果表明我们的方法成功学习生成了五种具有挑战性的物体类别的合理和多样化的纹理3D样本。
Apr, 2020
本文提出了Point2Mesh技术,它可以从输入的点云重建出表面网格,使用了深度神经网络自动定义先验,并通过优化整个形状的卷积核来实现全局优化以适应整个物体。与传统的重建方法相比,Point2Mesh对现实世界的非理想条件更具鲁棒性。
May, 2020
本文提出使用不同iable rendering技术生成三角网格和相关高分辨率纹理贴图的框架,以单视角自然图像为2D监督,并将网格和纹理编码为2D表示,以便使用2D卷积GAN进行建模,并在Pascal3D + Cars和CUB上展示了方法的有效性及其评估方法。
Jun, 2020
本研究旨在实现通过IF-Nets模型进行基于局部和全局深度特征提取,从部分三维纹理和已完成几何体上完成3D纹理的完整。我们的模型成功地用靠近已完成几何体的内插法来处理丢失的纹理部分,并在SHARP ECCV20挑战中取得了最高表现。
Sep, 2020
本文提出了一种基于GAN框架生成纹理三角形网格的方法,可以不依赖关键点注释,同时在ImageNet上设置了新的基准,相比基于真实关键点的先前方法性能相当。
Mar, 2021
Mesh2Tex使用一种混合网格神经场纹理表示法,从未相关的三维物体几何和照片逼真的RGB图像的集合中学习出真实的物体纹理流形,以生成适用于下游应用和3D渲染的纹理对象,并可以在具有挑战性的真实世界场景下有效地生成逼真的物体纹理。
Apr, 2023
本研究提出一种自我先验的网格修补框架,通过引入两个自监督图卷积网络训练来实现,从而在不需要任何训练数据集的情况下只需一个不完整的网格作为输入,并在修补过程中保持原始多边形网格格式,最终可以生成一个修补好的多边形网格。
May, 2023
该研究提出了一种新的方法,使用单个图像进行3D重建,生成了一个完整的360度3D纹理网格,改进于现有方法,具有更好的几何形状和一致性。
Jun, 2023
本研究解决了3D网格密集预测中网格卷积神经网络设计的挑战,特别是如何处理不规则图数据的高低分辨率变换问题。提出的自参数化的多分辨率卷积网络,创新性地构建网格金字塔,并使用区域感知的网格下采样/上采样操作,从而提高了密集预测的准确性,实验结果证实了其有效性。
Aug, 2024