SMURF: 动态连续的运动去模糊散射光场
提出 DyBluRF 方法,通过在受到运动模糊的单目视频中捕捉相机轨迹和场景内物体的离散余弦变换 (DCT) 轨迹,以及采用全局跨时间渲染方法来实现生成高质量、清晰的新视角,并保持场景的时空一致性。在经过特定定制的多样化动态场景数据集上进行的实验结果表明,该方法在从运动模糊输入生成清晰的新视角并保持场景的时空一致性方面优于现有方法。
Mar, 2024
提出一种用于模糊单目视频的动态去模糊 NeRF 框架(DyBluRF),通过互联的射线细化阶段(IRR)和基于运动分解的去模糊阶段(MDD),首次处理和处理了模糊单目视频的新视图合成。
Dec, 2023
提出了 Deblur-NeRF 方法,采用分析合成方法重建模糊视图,通过 Deformable Sparse Kernel 模块对空间可变模糊核进行建模,共同优化 NeRF 和 DSK 模块,从而恢复锐利的 NeRF。
Nov, 2021
SMERF 是一个高精度的实时视图合成方法,其采用分层模型划分方案和蒸馏训练策略,实现了对大场景的高保真和内部一致性,能够在网络浏览器上实现六自由度导航并在智能手机和笔记本电脑上实时渲染。
Dec, 2023
提出了用于去模糊的神经光辐射场(NeRF)的事件驱动捆绑调整方法(EBAD-NeRF),该方法通过利用混合事件 - RGB 数据来联合优化可学习的姿势和 NeRF 参数,引入了强化相机运动模糊的强度变化度量事件损失和光度模糊损失,实验证明 EBAD-NeRF 在曝光时间内可以准确获得相机姿势,并学习到比以前的方法更清晰的 3D 表示。
Jun, 2024
ExBluRF 是一种基于高效辐射场优化的极度运动模糊图像视图合成方法,通过在训练中优化尖锐的辐射场,同时估计生成模糊图像的相机轨迹,从极度模糊的图像中获取相机轨迹信息和辐射场。与现有方法相比,这种方法在更短的训练时间和 GPU 内存消耗下恢复了更锐利的 3D 场景。
Sep, 2023
本文提出了一种利用模型和学习模块的新方法,通过显式建模模糊形成过程和使用端到端可学习的响应函数来适应实际事件相机传感器中的非理想性,解决了运动模糊对 Neural Radiance Fields (NeRFs) 渲染图片质量的影响问题,结果显示该方法在合成和真实数据上优于仅使用帧或帧与事件相结合的已有去模糊 NeRFs,分别提高了 6.13dB 和 2.48dB。
Mar, 2024
本文提出了 D-NeRF 方法,将神经辐射场扩展到动态领域,允许从单个相机围绕场景重建和渲染对象的新图像。通过将时间作为系统的额外输入,并将学习过程分为两个主要阶段,可以同时学习两个映射,实现控制相机视图和时间变量以及物体移动的目的。
Nov, 2020
神经辐射场是一种有效的新视点合成和三维场景重建方法。我们提出了一种连续学习框架,通过回放方法结合混合的显式和隐式场景表示来训练神经辐射场,从而在连续设置中优于先前方法的重建质量,并在速度上有数量级的提升。
Sep, 2023
本研究提出了一种方法,通过从单个模糊图像和对应的事件流中恢复神经辐射场来模拟相机运动,并通过最小化合成数据和真实测量值之间的差异来联合学习隐式神经场景表示和恢复相机运动。
Jul, 2024