PSDR-Room:利用可微渲染的单张照片生成场景
本文提出了一种名为 PhotoScene 的框架,可以基于输入图像及与之大致对齐的 CAD 几何形态数据(自动重建或手动指定),构建具有高质量材质和相似照明的逼真数字孪生体。该框架采用过程材料图模型建模场景材料,可以优化图参数和纹理比例、旋转,以及场景光照度以最佳匹配输入图像。文中还对该技术进行了评估,并展示了该方法对于来自 ScanNet、SUN RGB-D 和证券照片的对象和布局重建可以重渲染出高质量、可完全照明的 3D 场景。
Jul, 2022
本文提出了一种使用神经渲染框架的方法,通过利用预测的深度数据和光源分割掩模,从单个图像中编辑复杂室内照明,解决了通过局部 LDR 场景观察从而对 HDR 照明进行建模和分离的难题,其特点在于综合使用场景重建和参数化 3D 照明的方法。
May, 2022
本文提出了基于自然语言的房间风格合成算法 RoomDreamer,通过 Geometry Guided Diffusion 和 Mesh Optimization 处理实现 3D 室内场景生成,大幅提升了几何和纹理的一致性和图像质量。
May, 2023
我们介绍了 ShowRoom3D,这是一种从文本生成高质量的 3D 房间场景的三阶段方法。我们利用 3D 扩散先验 MVDiffusion 优化 3D 房间场景,并通过逐步扩展相机采样范围的渐进式视角选择和第二阶段的姿态变换方法,实现改善结构完整性、从任意视角提高清晰度、减少内容重复性和不同视角的一致性,显著超越了现有方法。
Dec, 2023
提出了一种使用多视角图像将场景分解为几何形状、SVBRDF 和三维空间变化的灯光的场景级反渲染框架,该框架通过扩展 OpenRooms 数据集和设计有效的流程来处理多视角图像并分割灯光实现了比基于单视图的方法更好的性能,并可在任意 3D 位置进行逼真的物体插入。
Mar, 2023
该研究提出了一种物理动机的深度学习框架,可以解决室内光照估计的问题,通过 SGLV、体积光线跟踪、混合网络、 Monte-Carlo 渲染层和 RNN 等多种技术手段,其可以在单张图片或视频序列上预测整个场景下的光照,达到高质量、实时、高度真实感的场景光照预测和增强渲染。
May, 2023
使用不同 iable 渲染技术,利用几何对应场将深度神经网络从 RGB 图像中学到的知识传递到 3D 坐标系中,以优化 3D 姿态估计,并成功地在 Pix3D 数据集上实现了相对于现有方法高达 55%的改进。
Jul, 2020
提出了一种创造大规模室内场景的照片级真实数据集的新框架,可提供外观、布局、语义标签、高质量变化自由的 BRDF 和复杂照明等显著真实的基准数据,可用于逆向渲染、场景理解和机器人学,与物理引擎结合可创建具有摩擦系数等真实场景对应关系的虚拟机器人环境。
Jul, 2020
本文提出一种解决单视角条件下房间(墙壁,地板,天花板)的三维布局重建问题的新方法,使用离群点检测和优化方法,在处理布局中的遮挡时提高了重建的准确性,同时创建了扫描网数据集以便对方法进行数量化评价。
Jan, 2020