EvaGaussians:基于事件流辅助的高斯光照散焦模糊图像处理
VastGaussian是基于3D高斯平面分割的大型场景重建和实时渲染的首个方法,通过渐进的分割策略和外观建模的优化过程,在多个大型场景数据集上实现了超出现有NeRF方法的最新成果,实现了快速优化和高保真实时渲染。
Feb, 2024
通过使用3D高斯喷洒来优化运动模糊图像中的清晰3D场景,我们的方法DeblurGS克服了初始相机姿态获取中的不准确性并实现了最先进的去模糊和新视角合成性能。
Apr, 2024
通过事件输入,我们提出了首个基于事件的通用三维重构框架EvGGS,它以前馈方式从事件输入中将场景重构为三维高斯场,并可以泛化到未见过的情况,无需重新训练。
May, 2024
通过利用事件相机的高时间分辨率和显式的基于点的表示,Event3DGS可以在快速自我运动下仅根据事件流重建高保真度的3D结构,并通过稀疏感知的采样和渐进训练方法获得更好的重建质量和一致性,同时通过将运动模糊形成过程显式地结合到可微分的光栅化器中,通过有限的一组模糊的RGB图像来改善外观。大量实验证明,与现有方法相比,Event3DGS具有卓越的渲染质量,并且训练时间减少了95%以上,并且在渲染速度上具有数量级的提升。
Jun, 2024
使用Event Enhanced Gaussian Splatting(E2GS)方法,结合事件数据和高斯分层方法,以提高图像去模糊和产生高质量的新视角合成,并在综合实验中展示了较快训练和渲染速度(140 FPS)
Jun, 2024
3D去模糊重建技术的研究在最近得到了显著的进展,Neural Radiance Fields (NeRF)和3D Gaussian Splatting (3DGS)的发展使得它们能够从模糊的图像输入中恢复相对清晰的3D重建,但仍然存在对严重模糊和复杂摄像机运动的处理限制。为了解决这些问题,我们提出了一种基于事件辅助的3D去模糊重建和高斯扰动(EaDeblur-GS)的方法,该方法将事件相机数据集成到3DGS中,增强其对运动模糊的鲁棒性。通过使用自适应偏差估计器(Adaptive Deviation Estimator,ADE)网络来估计高斯中心偏差,并使用新颖的损失函数,EaDeblur-GS能够实时实现清晰的3D重建,表现与最先进的方法相当。
Jul, 2024
本研究解决了机器人应用中由于运动模糊和光照不足导致的神经辐射场(NeRF)重建问题。提出的E-3DGS通过将事件分为运动和曝光事件,利用这两者的优势,实现了高质量的场景重建。我们的工作加速了重建过程,并在困难条件下提高了重建质量,提供了一种新颖且高效的3D重建方法。
Oct, 2024
本研究解决了传统相机在高速度场景下重建的局限性,首次将事件相机引入到 casually captured video 的场景构建中。通过提出 EF-3DGS 方法,利用事件生成模型、对比最大化框架及光度束调整技术,不仅增强了场景重建的准确性,还提高了基于事件的运动信息提取效果,具有重要的应用潜力。
Oct, 2024
本研究解决了当前4D动态空间重建中缺乏实时在线训练方法的问题。我们提出了一种新的三阶段管道,能够区分动态和静态特征,优化其运动,并保持时间连续性。该方法在在线4D重建中实现了最先进的性能,训练速度提高了20%,表示质量优越,具备实时渲染能力。
Nov, 2024
本文针对3D高斯绘制技术在渲染速度和模型大小上的瓶颈问题,提出了新的优化方法。通过精准定位场景中的高斯点和引入新的剪枝技术,显著提高了渲染速度、减少了模型大小和训练时间,实验证明渲染速度提升达到6.71倍,同时使用的原语比3D高斯绘制减少了10.6倍。
Nov, 2024