- Style-NeRF2NeRF: 从样式对齐的多视图图像中进行三维样式转移
通过使用 2D 图像扩散模型来改良 3D 场景,我们提出了一种简单但有效的流程;通过细化源 NeRF 模型以及使用风格化图像生成的样式对齐的图像扩散模型,实现 3D 风格转移。
- AirPlanes: 通过 3D 一致嵌入实现准确的飞机估计
本文提出一种新方法,通过预测多视角一致的平面嵌入来辅助几何方法,将点进行聚类成平面,从而解决了在场景中估计平面表面的问题,并在 ScanNetV2 数据集上表明,该方法优于现有方法和强基线的平面估计任务。
- 文本引导的 3D 视觉定位调查:要素、最新进展与未来方向
文本引导的三维视觉定位(T-3DVG)是从复杂的三维场景中定位与语言查询在语义上对应的对象,近年来已经在三维研究领域引起了越来越多的关注。本综述试图全面概述 T-3DVG 的进展,包括基本要素、最新研究进展和未来研究方向,并提供了详细的教程 - 基于 LLM 的合作智能体,利用信息相关性和计划验证
我们通过与三维场景进行互动和协作来解决多智能体合作的挑战,重点解决现有合作智能体系统的三个主要限制,并提出 REVECA,这是一种由 GPT-3.5 驱动的新型认知架构,利用相关性评估、计划验证和空间信息来增强智能体在动态和部分可观测环境中 - Sp2360:使用级联 2D 扩散先验进行稀疏角度 360 场景重建
通过使用潜在扩散模型(LDM)的先验来解决 360 度 3D 场景的稀疏视图重建问题。我们展示了通过预训练的 2D 扩散模型经过精细调整可以大幅提高场景重建的方法 SparseSplat360(Sp2360),该方法通过级联修补和伪影移除模 - GS-Hider:将消息隐藏到三维高斯喷洒中
提出了一种针对 3D 高斯喷洒的隐写术框架,名为 GS-Hider,可将 3D 场景和图像隐写到原始的 GS 点云中,且能准确提取隐藏的信息。
- DerainNeRF:粘滞水滴去除的三维场景估计
使用水滴去除方法,通过利用多视角图像来预测水滴的位置并训练神经放射场恢复清晰的三维场景,实验结果显示我们的方法在去除水滴的同时生成了清晰的三维场景,优于现有的水滴去除方法。
- GSDF:3DGS 引入 SDF 以提升渲染与重构
提出了一种新的双分支结构 GSDF,它将 3D 高斯喷洒(3DGS)表示法的灵活和高效与神经符号距离场(SDF)相结合,通过相互指导和联合监督来缓解它们的局限性,并在各种场景上展示了我们的设计能够更准确、更详细地重建表面,并同时使 3DGS - 高斯抓取器:面向开放词汇的 3D 语义高斯点云描绘机器人抓取
通过使用 GaussianGrasper,可以利用 3D 高斯喷洒技术将场景明确地表示为一系列高斯原语,并通过语言指令使机器人能够准确查询和抓取对象,为语言引导的操作任务提供了新的解决方案。
- 稳健逆图形推理的概率推断
通过使用具有强大场景先验和无信息均匀损坏先验的贝叶斯方法(RIG),在给定单一图像的情况下,我们能够推断出含有各种污染物(如雨、雪或雾)的 3D 场景,并展示了 RIG 是如何超越点估计而优于深度估计器和其他性能的 NeRF 方法的。
- 任意项目视图数量的关键配置分类
用最近发展的代数方法对投影相机的所有临界配置进行分类,发现它们是众所周知的代数曲面和度数最多为 4 的曲线;还通过发现之前未知的临界配置和证明一些之前被认为是临界的配置实际上并非如此,改进了以前的研究结果。
- 自主驾驶的三维占据世界模型学习
理解 3D 场景的演变对于自动驾驶决策至关重要。本文通过在 3D 占据空间中学习 OccWorld 世界模型,同时预测自车运动和周围场景的演变,提出了一种新的框架。实验证明了 OccWorld 在无需使用实例和地图监督的情况下具有有效建模驾 - PaintNeSF: 用矢量化的 3D 笔画进行风格化景物的艺术创作
我们提出了一种新技术 Paint Neural Stroke Field(PaintNeSF),用于根据多视角 2D 图像生成 3D 场景的任意新视角的风格化图像。
- 稳定扩散对三维场景了解多少?
通过探测扩散网络,研究不同的 3D 场景属性,我们发现 Stable Diffusion 在场景几何、支撑关系、阴影和深度方面表现优秀,但对遮挡不够有效。与其他大规模训练的模型相比,如 DINO 和 CLIP,我们发现 Stable Dif - 语义风格化辐射场
我们提出了一种从任意图像向 3D 场景中的物体转移风格的方法,旨在通过最近邻损失的运用实现更加可定制和风格化的场景图像创作,并确保多视角一致性。
- CVSformer: 用于语义场景补全的交叉视图融合变压器
本文提出了一种称为 CVSformer 的方法,其中包括多视角特征合成和跨视角变压器,用于学习跨视角对象关系,在公共数据集上取得了最先进的结果。
- Blended-NeRF: 在现有的神经辐射场中生成和混合零样本目标
Blended-NeRF 是一种基于文本提示或图像贴片及 3D ROI 盒子的方法,利用预训练的语言 - 图像模型来操纵合成并混合一个新对象到现有的 NeRF 场景中实现对现有场景感兴趣区域的编辑,使用新颖的容积混合技术进行无痕混合。
- SinGRAF:学习单场景 3D 生成辐射场
SinGRAF 是一种 3D 感知的生成模型,利用一些场景的输入图像进行训练,可生成不同的 3D 场景,同时保持输入外观的不同实现。
- 神经特征融合场:自监督二维图像表征的三维蒸馏
使用神经特征融合场(N3F)方法,将预训练的 2D 图像特征提取器引入到对可重建为 3D 场景的多个图像的分析中,以学习在 3D 空间中定义的用于提取特征的学生网络,证明在各种任务中, including 2D 对象检索、3D 分割和场景编 - UPST-NeRF:基于神经辐射场的三维场景通用光真实风格迁移
本文提出了一种针对三维场景的逼真风格转移框架,可以通过 2D 样式图片实现 3D 场景的逼真样式转移,并使用波束特征优化三维场景并联合优化高层次网络,以实现任意风格图片的场景逼真样式转移,并证明该方法在视觉质量和一致性方面优于现有方法。