本文提出了一种使用循环网络从事件流中直接学习重建图像的方法,并在此基础上扩展到从事件流合成彩色图像的方法,实验证明该网络在处理高速现象和挑战性照明条件下具有较好的图像质量和高动态范围重建,并作为事件数据的中间表示进行了分类和视觉惯性积分导航等应用。
Jun, 2019
该论文通过自监督学习,将基于事件相机的图像强度重构问题与光流估计相结合,避免了需要真实数据的问题,并提出了一种轻量化的神经网络,以实现快速推理和高精度的光流估计。
Sep, 2020
提出了一种异步滤波器,可以将事件摄像机从高速、高动态范围数据中提取的局部时间对比信息,与传统摄像机从低频参考强度信息中提取的信息相融合,以形成一个单一的高时空分辨率图像状态,证明该算法优于现有状态的方法。
Nov, 2018
研究使用成熟的计算机视觉技术对从事件数据中重建的视频进行对象分类和图像重建,从而充分发挥事件相机的优异特性。
Apr, 2019
本文介绍了一种用于提高事件基于 CNNs 的训练数据的策略,可为视频重建网络和光流网络带来 20-40%的性能提升,并提出了一种新的高质量数据集 HQF 以解决事件基于视频重建缺乏质量地真实图像的问题。
Mar, 2020
本文提出了一种可解释的网络,即基于事件增强的稀疏学习网络 (eSL-Net),用于从事件相机中恢复高质量图像,并通过稀疏学习框架共同考虑事件和低分辨率强度观测,经过合成数据集的训练,可以将表现提高 7-12dB,在不需要额外训练的情况下,可以轻松扩展到具有与事件相同高帧率的连续帧的生成。
Jul, 2020
使用事件相机,提出了一种解决仅使用单个事件相机进行密集三维重建的新方法,结果显示该方法无需使用现有方法的流水线即可直接生成可视化区分的密集三维重建,同时创建了一个使用事件相机模拟器生成的合成数据集,加速了相关研究。
Sep, 2023
本文提出了基于事件相机的条件生成式对抗网络,可以从时间数据流中的可调节部分生成图像 / 视频,并展示了在极端光照条件下生成高动态范围 (HDR) 图像的效用以及快速运动条件下生成非模糊图像的可能性和非常高的帧速率。
使用 RGB 和事件相机以及异步的事件流与校正的稀疏 RGB 帧的组合,共同优化事件相机的位置和辐射场,以建模可变形的神经辐射场。该方法在处理高变形和低采样率的情况下显示出显著优势,并在真实世界数据集上进行了实验证明其对建模动态场景中的可变形神经辐射场具有良好的应用前景。
该研究提出一种基于事件流的端到端神经网络,能够从低空间分辨率的事件摄像头中重建出高分辨率,高动态范围的图像,优于现有同类算法,可通过使用主动传感像素框架或迭代重建图像方法进一步扩展。
Dec, 2019