SSRNet: 可扩展的三维表面重建网络
本文提出了一种新型的 3D 分割框架 RSNet,它使用了轻量级局部依赖模块来高效地建模点云中的局部结构,并在 S3DIS、ScanNet 和 ShapeNet 数据集上进行了全面的实验验证,结果表明 RSNet 在所有基准测试上均优于先前的最先进方法。
Feb, 2018
本文提出一种可扩展且健壮的方法,通过多视点三维立体点云计算三维表面网格,能够处理点密度极大跳跃,用于提取表面假设和合并表面假设,具有卓越的精度和完整性。
May, 2017
一种基于学习的视可见性面重建方法,使用 3D Delaunay 四面体化及基于图神经网络的分类方法识别点云中缺陷区域并生成表面模型的能量模型,以局部几何和视线可见性信息学习能见度模型,结合深度学习和能量模型的优点,优于当前公开的基于学习和非学习的表面重建算法。
Jul, 2021
该论文提出了一种名为 SurfaceNet 的端到端学习框架,可用于多视图立体成像中的 3D 建模,并通过大规模 DTU 基准测试对 SurfaceNet 进行了验证。
Aug, 2017
提出了一种基于 Semantic Superpoint Tree Network (SSTNet) 的端到端解决方案,其通过学习场景点的语义特征构建中间的语义超级点树(SST), 在中间树节点处进行实例对象的建议,以及通过一个模块对错误的超级点进行修剪, 针对数据不规则性提出了一种改进的方法。在 ScanNet 和 S3DIS 的基准测试中表现出强大的实用性。
Aug, 2021
本文针对基于 RGB 图像学习三维物体表面重建的挑战性任务,通过提出拓扑保持的骨骼形状表示方法,即 SkeletonNet 设计,结合 Skeleton-Based Graph Convolutional Neural Network (SkeGCNN)和 Skeleton-Regularized Deep Implicit Surface Network(SkeDISN)模型,有效提高表面重建的性能,并在广义任务设置下取得良好效果。
Aug, 2020
通过深度学习技术,我们提出了一种新的架构 RESCAL3D,用于对点云进行分辨率可扩展的三维语义分割,该方法在实现极快的推断速度的同时,保持了较高的性能水平。
Apr, 2024
从单视图图像重建详细的 3D 场景仍然是一项具有挑战性的任务,我们提出了一种新颖的框架,用于从单视图图像中同时高保真地恢复物体形状和纹理。我们的方法利用了提出的单视图神经隐式形状和辐射场 (SSR) 表示,利用显式的 3D 形状监督和颜色、深度和表面法线图的体素渲染,克服了部分观测下形状和外观的模糊性,同时支持从新视点渲染图像。除了个体物体,我们的方法还支持将物体水平的表示组合成灵活的场景表示,从而实现了整体场景理解和 3D 场景编辑等应用。我们进行了大量实验证实了我们方法的有效性。
Nov, 2023
SSFlowNet 是一种半监督的场景流估计方法,通过混合有标签和无标签的数据,优化标签成本和模型训练精度之间的平衡,主要通过创新地使用伪标签降低对大量标记数据的依赖,并强调点云的几何结构以及引入空间记忆特征来学习顺序时间帧上点之间的几何关系,从而动态构建相关性矩阵以评估每个个体点的场景流依赖性,并通过在 SSFlowNet 中集成流一致性模块,提高了流的一致性估计能力。实证结果表明,SSFlowNet 在伪标签生成方面优于现有方法,适应不同的数据量,并且在场景流估计领域取得了显著的进展。
Dec, 2023
提出了一种新的联合实例和语义分割方法,称为 JSNet,以同时处理 3D 点云的实例和语义分割。该方法包括构建一个有效的主干网络,通过点云特征融合模块融合主干网络的不同层特征以及开发联合实例语义分割模块,把语义特征转换成实例嵌入空间并将其与实例特征相结合以促进实例分割,并将实例特征聚合到语义特征空间以促进语义分割,最后采用简单的均值漂移聚类生成实例预测。实验结果表明,提出的 JSNet 在 3D 实例分割方面比现有方法表现更好,在 3D 语义预测方面也有显著改善,并且还有益于部分分割。
Dec, 2019