GARField:基于辐射场的群体聚合
本文介绍了一种新的基于高斯激活函数的神经辐射场模型 ——Gaussian Activated neural Radiance Fields(GARF),该模型不需要先验的相机位姿信息,且在高保真重建和位姿估计方面性能优于当前的最先进技术。
Apr, 2022
通过交互式流程而无需任何训练过程和学习参数,本文提出了一种在 3D 高斯中实现对象分割的新方法,称为 SA-GS。通过提出的多视角掩码生成和视图标签分配方法,SA-GS 可以泛化 SAM 以实现 3D 一致的分割,并提出了跨视图标签投票方法来分配不同视图中的标签。实验证明,SA-GS 在 3D 分割结果方面具有高质量,也可以轻松应用于场景编辑和碰撞检测任务。
Jan, 2024
本文介绍了一种名为 GSN (Generative Scene Networks) 的生成式场景网络,通过学习将复杂室内场景分解成许多局部辐射场并能够从任意视点渲染,同时具有生成新场景和完成仅有稀疏 2D 观察的场景的能力,并能够更好地表示和呈现大尺寸和复杂室内环境。通过与其他现有模型的比较,GSN 在多个场景数据集上表现出更高的场景渲染质量。
Apr, 2021
本文提出了一种名为 “3D 部件分组” 的新任务,在这个任务中,需要找出各个零散部件之间的所有可能组合。为了解决这个挑战,我们提出了基于梯度场的自回归采样框架(G-FARS),专门为 3D 部件分组任务量身定制。通过设计一个基于梯度场的选择图神经网络(GNN),我们的框架能够有效地捕捉输入中所有部件之间的复杂关系。在训练完成后,我们的框架能够通过从混合部件集中迭代地选择部件来实现 3D 部件的自主分组,充分利用了由训练过的基于梯度场的选择 GNN 所获得的知识。
May, 2024
本文提出了一种基于放射场的生成模型,该模型具有高保真度的可渲染三维一致模型,能够更准确地控制相机视点和物体姿态,并通过一个多尺度基于补丁的鉴别器来演示高分辨率图像的合成。
Jul, 2020
该研究论文对于在光辐射场中进行交互式分割的现有方法进行了探讨,并提出了一种新的 SGISRF 方法,能够通过少量用户交互点击,对由光辐射场表示的新场景进行 3D 物体分割。该方法通过三种特别设计的技术来解决三个关键挑战,并在多个实验中证明了其有效性和适用性。
Aug, 2023
我们提出了一种新颖的方法,通过利用神经辐射场(NeRFs)从二维监督中进行三维语义分割,通过提取表面点云上的特征,实现了场景的紧凑表示,这种表示对于三维推理而言具有高效的采样并且适于少样本分割。我们的方法不依赖于场景参数化,可以适用于任何类型的 NeRF 场景。
Oct, 2023
这篇研究论文提出了一种新型神经网络,可以从 2D 观察中隐式地表示和渲染 3D 物体和场景,通过将 2D 图像中的像素特征投影到 3D 点上,并使用聚合策略来考虑视觉遮挡,生成高质量逼真的新视角。
Oct, 2020
通过使用 Neural Radiance Field 中的新颖特征场,本研究提出了一种将多粒度、视角不一致的图像分割转化为层次化、3D 一致的表示的方法。通过在不同距离阈值下观察特征距离,可以揭示不同尺度下的分段结构。将视角不一致的多粒度 2D 分割作为输入,生成层次化的 3D 一致分割作为输出,展示了在合成数据集上准确性和视角一致性上的改进。并提供了模型在真实场景中生成的 3D 层次化分割的定性实例。
May, 2024