EvGGS: 一种用于事件驱动广义高斯绘制的协同学习框架
通过利用事件相机的高时间分辨率和显式的基于点的表示,Event3DGS 可以在快速自我运动下仅根据事件流重建高保真度的 3D 结构,并通过稀疏感知的采样和渐进训练方法获得更好的重建质量和一致性,同时通过将运动模糊形成过程显式地结合到可微分的光栅化器中,通过有限的一组模糊的 RGB 图像来改善外观。大量实验证明,与现有方法相比,Event3DGS 具有卓越的渲染质量,并且训练时间减少了 95%以上,并且在渲染速度上具有数量级的提升。
Jun, 2024
使用事件相机辅助高斯投射方法 (EvaGaussians) 对模糊图像进行清晰重建,通过优化 3D-GS 参数和恢复相机运动轨迹,产生高保真度的新视图。
May, 2024
使用 Event Enhanced Gaussian Splatting(E2GS)方法,结合事件数据和高斯分层方法,以提高图像去模糊和产生高质量的新视角合成,并在综合实验中展示了较快训练和渲染速度(140 FPS)
Jun, 2024
基于 3D 高斯扩散的新视角合成方法在各种场景下表现出了良好的性能,本文提出了一种高效的基于点的可微渲染框架,用于从照片集合中重建场景,通过引入基于残差的球谐系数传输模块,将 3D 高斯扩散方法适应于不同的光照条件和光度后处理,同时引入了一个轻量级的空间注意力模块,可同时预测暂时遮挡物和隐含外观表示,实验结果表明,该方法在新视角和外观合成的渲染质量上优于现有方法,并拥有较高的收敛速度和渲染速度。
Jun, 2024
提出了一种新的运动感知增强框架,通过挖掘光流中的有用运动线索来改进动态场景重建,以提高不同动态 3D 高斯喷溅方式的性能,并针对基于形变的范例提出了一种瞬态感知形变辅助模块。经过广泛的实验证明,与基线相比,我们的方法在渲染质量和效率方面都表现出明显的优势。
Mar, 2024
使用 EgoGaussian 方法,通过 RGB egocentric input 可以同时重建 3D 场景和动态跟踪 3D 物体运动,并在具有挑战性的自然环境中表现优于之前的方法。
Jun, 2024
Video-3DGS 是一种基于 3D 高斯雾化技术改进的视频编辑器,旨在增强零痕编辑中的时间一致性,并通过在两个阶段利用三维高斯进行视频重构和编辑来展示其有效性。
Jun, 2024
通过引入轻量级 4D 高斯光斑框架(LGS),该研究解决了在资源有限的手术设备中妨碍实时渲染的存储问题,并在动态内窥镜重建中展现出较高的压缩率、良好的视觉质量和实时渲染效率。
Jun, 2024
本文介绍了一种名为 GS-SLAM 的算法,它在同时定位与地图构建(SLAM)系统中首次使用了 3D 高斯表示方法,实现了效率和准确性之间的更好平衡。与使用神经隐式表示的最新 SLAM 方法相比,我们的方法采用了实时可微分雀斑光照渲染流水线,大大加速了地图优化和 RGB-D 重渲染。具体而言,我们提出了一种自适应扩张策略,通过添加新的或删除噪音 3D 高斯来有效重构新观测到的场景几何并改善先前观测区域的建图。这种策略对于将 3D 高斯表示扩展到重建整个场景而不是在现有方法中合成静态物体至关重要。此外,在位姿跟踪过程中,设计了一种有效的从粗到细的技术,以选择可靠的 3D 高斯表示来优化相机姿态,从而减少运行时间并实现强健的估计。我们的方法在 Replica 和 TUM-RGBD 数据集上与现有的最新实时方法具有竞争力的性能。源代码将在获批后发布。
Nov, 2023