- DistillNeRF:通过蒸馏神经场和基础模型特征从一瞥图像中感知 3D 场景
DistillNeRF 是一个自监督学习框架,专注于理解自动驾驶中基于有限 2D 观测的 3D 环境。该方法通过稀疏的、单帧的多视角相机输入,预测丰富的神经场景表示,并通过可微分渲染进行自监督训练以重构 RGB、深度或特征图像。实验证明,D - RGBD GS-ICP SLAM
提出了一种融合通用迭代最近点(G-ICP)和 3D 高斯光滑(3DGS)的新型密集表达 SLAM 方法,通过使用单个高斯地图进行跟踪和建图,实现了冗余计算的最小化、系统效率的提升以及跟踪精度和建图质量的增强。
- ICLR基于图像渲染的去噪传播
通过引入第一种能够快速进行真实世界三维场景的详细重建和生成的推广模型,我们在本研究中提出了三个贡献:首先,引入了一种新的神经场景表示方法 IB-planes,能够有效准确地表示大型三维场景,并在需要时动态分配更多容量以捕捉每张图像中可见的细 - ICCV主动神经映射
我们提出了一种具有不断学习的神经场景表示的主动映射问题,即主动神经映射。关键在于通过高效的代理移动主动地找到要探索的目标空间,从而在以前未见过的环境中实时地最小化地图的不确定性。本文研究了不断学习的神经场中的权重空间,并通过实验证明了神经变 - CVPRAutoRecon:三维物体自动发现与重建
本文介绍了一种名为 AutoRecon 的新型框架,该框架利用自我监督的 2D 视觉转换器功能,通过多视图图像自动发现和重建对象,并使用分解的神经场景表示进行密集监督,从而实现了准确的对象重建和分割。
- 场景理解的分解神经表示
本研究提出了一种基于神经网络的场景表示方法,可以直接从 RGB-D 视频中学习物体级别的神经表示,并具有显式的对象运动编码和 / 或变形编码,该方法评估后表明具有高效性,可解释性和可编辑性。
- Point-SLAM:基于密集神经点云的 SLAM
本文提出了一种基于密集神经算法的同步定位与建图方法,使用深度学习生成的点云来锚定神经场景的特征,通过最小化基于 RGBD 的重新渲染损失,实现对跟踪和地图绘制的同时处理,通过在信息密度低的区域减少运行时间和内存使用,并将更高的点密度分配给解 - 水下 NeRF 的进一步研究:学习神经反射场以进行海洋图像真实色彩校正
通过联合学习介质和神经场表示的效果,我们提出了一种算法来还原水下图像中的真实色彩。我们的方法将水的效应建模为距离和反射光的光衰减的组合。我们的技术能够有效地恢复水下图像的真实色彩,从而提高了采样效率和数值稳定性。
- AssetField: 基于地面特征平面表示的资产挖掘与重构
该论文提出了一种新颖的神经场景表示方法 AssetField,通过学习一组对象感知的地面特征平面来表示场景,可以构建无监督的模板库。此表示法可以自然地将场景可视化为俯视图,在对象上进行各种操作,同时可以对包含多个重复物品的场景进行集体编辑, - 野外语义感知遮挡过滤神经辐射场
通过使用语义信息并在少量的图片上建立 occlusion filtering module,我们提出了一个学习框架来重建神经场景表征并演示了其在 Phototourism 数据集上在 few-shot 场景下优于最先进的 novel vie - S$^3$-NeRF:单视角下通过遮挡和阴影得出的神经反射场
利用单视图图像下不同点光源捕捉来学习神经场景表示,利用阴影和明暗等单目线索推断场景几何,并学习神经反射场,用于代表场景 3D 几何和 BRDF。实验表明,该方法能够从单视图图像中恢复场景的 3D 几何,包括可见和不可见部分,适用于新视角合成 - CVPR全景神经场:一种语义对象感知的神经场景表示
我们提出了全视场神经场(PNF),这是一种对象感知的场景神经表示,可将场景分解为一组对象和背景。每个对象都由一个定向的 3D 边界框和一个多层感知器(MLP)表示,可以采取位置、方向和时间并输出密度和辐射率。
- CVPR可控的 3D 人体合成的表面对齐神经辐射场
本研究提出了一种从稀疏的多视角 RGB 视频中重建可控的隐式 3D 人体模型的新方法,使用网格表面点和身体网格的符号距离来定义神经场景表示,并通过改进的顶点法线的重心插值将点投影到网格表面上,实现了更高质量的新视角和新姿势合成,同时支持容易 - Light Field Networks: 单次计算渲染的神经场景表示
本文提出了一种新型的神经场景表示法,Light Field Networks (LFNs),其可实现基于单一神经网络评估的 360 度四维光场参数化的几何和外观,通过元学习优化 LFNs 的先验使其能够从单个图像观察中实现多视角一致的光场重 - 减肥版 NeRF:语义一致的少样本视角合成
DietNeRF 通过引入辅助语义一致性损失,使用预训练的视觉编码器,改进了使用较少图像时的神经辐射场的视图合成,从而提高了感知质量。
- CVPRIBRNet: 学习多视角基于图像渲染
通过绘制多种源视图来渲染高分辨率成像,并利用神经网路的视角插值,在新颖场景中综合新视角。
- CVPRpixelNeRF:从一张或少量图像中生成神经辐射场
我们提出了一种名为 pixelNeRF 的学习框架,可以在仅有一张或几张输入图像的条件下预测连续的神经场景表示。与现有方法相比,我们的体系结构不需要每个场景都进行优化,从而使得在仅有一张图像的情况下就可以执行视角的合成和单幅图像的三维重建。 - 神经稀疏体素场
本文介绍了一种新的神经场景表示方法 NSVF,它定义了一组体素界限的隐式场,通过稀疏体素八叉树组织,从一组姿态的 RGB 图像中逐步学习底层体素结构,并通过跳过不包含任何相关场景内容的体素来加速渲染新视角,可轻松应用于场景编辑和场景组合。