该研究介绍了一种将基于合成和基于流的方法结合使用的新方法 Time Lens,通过采用事件相机技术来消除场景中高动态的影响,并在多个基准测试中提高了 5.21 dB 的峰值信噪比。
Jun, 2021
该研究探讨了如何利用事件相机和模糊图像进行光流估计,提出了一种基于事件相机和模糊图像的光流估计算法,并通过实验验证了该算法的优越性。
Apr, 2020
本文介绍了利用事件相机和基于事件的光流估计算法结合的方法,来提高视频插帧的准确度和效率。
May, 2023
本文提出了一种使用循环网络从事件流中直接学习重建图像的方法,并在此基础上扩展到从事件流合成彩色图像的方法,实验证明该网络在处理高速现象和挑战性照明条件下具有较好的图像质量和高动态范围重建,并作为事件数据的中间表示进行了分类和视觉惯性积分导航等应用。
Jun, 2019
提出了一种异步滤波器,可以将事件摄像机从高速、高动态范围数据中提取的局部时间对比信息,与传统摄像机从低频参考强度信息中提取的信息相融合,以形成一个单一的高时空分辨率图像状态,证明该算法优于现有状态的方法。
Nov, 2018
本文提出了一种改进的 2D 编码事件数据的 3D 表达方法,并介绍了 3D-FlowNet 网络体系结构以进行光流估计,并采用自监督训练策略来弥补事件相机标记数据的缺乏。结果表明,我们的 3D-FlowNet 具有更好的性能。
Jan, 2022
本文介绍了一种用于提高事件基于 CNNs 的训练数据的策略,可为视频重建网络和光流网络带来 20-40%的性能提升,并提出了一种新的高质量数据集 HQF 以解决事件基于视频重建缺乏质量地真实图像的问题。
Mar, 2020
本文提出了一个大规模的可见事件跟踪基准测试(VisEvent),由 820 个视频对组成,其中包含以低照度、高速和背景杂波为特点的数据集,将事件流转换为事件图像,并构建了 30 多种基线算法和一个简单但有效的跨模态转换器,以实现可见数据和事件数据之间的更有效特征融合。实验结果验证了模型的有效性。
Aug, 2021
研究使用成熟的计算机视觉技术对从事件数据中重建的视频进行对象分类和图像重建,从而充分发挥事件相机的优异特性。
Apr, 2019
利用事件相机和边缘特征来提高视频帧插值的质量。
Apr, 2024