PCLs: 基于几何感知的3D姿态透视裁剪层神经重建
本文提出使用多视角图像而无需注释,来学习一个具有几何感知能力的身体表示,通过使用该身体表示,我们的方法在仅使用少量标记数据的情况下,显著优于完全监督的方法,并且在使用仅 1% 标记数据时,也优于其他半监督方法。
Apr, 2018
本文提出了一种利用场景 3D 几何信息进行新视角生成的方法,通过学习区域感知几何转换网络实现输入图像到目标视角的变换,并在 KITTI 和 ScanNet 数据集上取得了优于现有方法的高质量生成效果。
Apr, 2018
本篇综述文章总结了基于深度学习技术的图像三维重建方法,以形状表示、网络结构和训练机制为基础,介绍了近期该领域的研究进展和性能比较,并探讨未来研究的方向。
Jun, 2019
研究提出一种基于神经符号编程的Perspective Plane Program Induction(P3I)框架,用于解决自然图像的逆向图形问题,并获得相机位置、物体位置和全局场景结构等高级场景表示,并能进行图像修补等低级图像处理任务。
Jun, 2020
本研究提出了一种新颖的位置编码方案(Spline Positional Encoding),将输入坐标映射到高维空间,以帮助从无组织的3D点云中恢复带有细节的几何形状,从而进一步验证了该方法在3D形状重建和形状空间学习任务中的优势。同时,在图像重建方面也展示并评估了我们方法的功效。
Jun, 2021
本论文提出一种基于内隐神经表示的重建方法,将平面约束融合到多视角立体方法的深度图估计中,并在2D语义分割网络预测的墙和地面区域采用平面约束来规范几何形状。该方法在ScanNet数据集上的实验表明,与以前的方法相比,在3D重建质量方面表现出更好的性能。
May, 2022
本文提出一种新方法,将完整画面中的位置信息带入剪裁图像的特征中,以解决在3D人体姿态和形状估计中全局旋转不准确的问题,并提出基于CLIFF的伪基础真值标注器,能为野外2D数据集提供高质量的3D标注和对基于回归的方法提供关键的全面监督。
Aug, 2022
提出了使用透视场来建模图像的局部透视特性,这种表示有多种优点,如不对相机模型作任何假设、对常见图像编辑操作具有不变性或等变性、更易于解释和与人类感知相一致,我们通过神经网络预测透视场并将其转换为校准参数,展示了其在图像合成中的应用及在各种场景下相对于相机校准方法的优越性。
Dec, 2022
摘要:本研究论文探讨了在多视角三维建模中,相机姿势是否是必需的问题,并提出了一种名为LEAP的新型无姿势方法,该方法通过数据学习几何知识并使用神经体积进行图像聚合,展示了在预测姿势之下,LEAP相较于现有方法有明显的性能优势,同时运行速度比PixelNeRF快400倍。
Oct, 2023