- 基于事件驱动束调整的去模糊神经辐射场
提出了用于去模糊的神经光辐射场(NeRF)的事件驱动捆绑调整方法(EBAD-NeRF),该方法通过利用混合事件 - RGB 数据来联合优化可学习的姿势和 NeRF 参数,引入了强化相机运动模糊的强度变化度量事件损失和光度模糊损失,实验证明 - CVPRLED:用于事件相机去噪的大规模真实配对数据集
构建了一个新的真实世界事件去噪数据集,并提出了一种基于同质双事件的去噪框架,用于捕捉与原始信号相关的事件信息并分离噪声,实现准确的去噪。
- EvaGaussians:基于事件流辅助的高斯光照散焦模糊图像处理
使用事件相机辅助高斯投射方法 (EvaGaussians) 对模糊图像进行清晰重建,通过优化 3D-GS 参数和恢复相机运动轨迹,产生高保真度的新视图。
- EF-Calib: 使用连续时间轨迹对事件和帧分相机进行时空标定
提出了一个名为 EF-Calib 的时空校准框架,用于事件相机和基于帧的相机的校准,通过引入可连续表示相机姿态的 B 样条曲线模型以及分析性的雅可比矩阵,实现了内参、外参和时间偏移的校准,具有较高的准确性和方便性。
- HR-INR: 基于事件相机的连续时空视频超分辨率
提出了一种基于 INR 的新型连续时空视频超分辨率(C-STVSR)框架,通过事件相机捕捉全局依赖性和区域运动,利用时空嵌入捕捉长期依赖性,从而提高视频分辨率和帧率。
- 基于事件焦点堆叠的单目深度学习
本研究提出了 EDFF 网络来估计基于事件相机的稀疏深度,通过利用事件体素网格对强度变化信息进行编码,并将事件时间表面投影到深度领域中以保留每个像素的焦距信息。同时,提出了基于焦距的跨模态注意力模块和多级深度融合块,用于融合上述信息和生成最 - TENet:融合多尺度池化和相互引导融合的 RGB-E 目标追踪
通过改进 RGB 模式的视觉对象跟踪,利用视觉事件相机的输出,特别是对场景运动特别有信息量的输出,本文通过引入一个适应事件数据固有特性的事件 backbone (Pooler),提出了一种高质量的特征表示方法,该方法利用多尺度池化来捕捉事件 - CVPR利用事件相机观测夜间运动
我们提出了一种针对夜间动态场景的新方法,利用事件相机进行成像。我们通过时间尾随特性和空间非均匀分布的观察,构建了一个夜间事件重建网络,包括学习能力的事件时间戳校准模块以对齐时间尾随事件,和一个非均匀光照感知模块以稳定时空事件分布。通过构建配 - CVPR使用事件相机进行乒乓球旋转估计
使用事件摄像机利用光流从提取的事件中推断球的自旋,在实时环境中实现飞行球的自旋估计,平均自旋幅度误差为 10.7±17.3 rps,自旋轴平均误差为 32.9±38.2°。
- CVPREventEgo3D:从主观事件流中进行的 3D 人体动作捕捉
使用单眼自我中心 3D 人体动作捕捉问题,该文介绍了基于事件相机和鱼眼镜头的 3D 人体动作捕捉方法,并开发了 EE3D 框架,具有高 3D 重建准确度和实时 3D 姿势更新速率。
- 10K FPS 的事件增强快照压缩摄影
通过结合事件相机和视频快照压缩成像技术,提出了一种新颖的混合 “强度 + 事件” 成像方案,利用双路径光学系统记录编码强度测量和中间事件信号,通过双分支 Transformer 解码密集视频帧,实现了以 0.1 毫秒时间间隔进行高质量的快照 - 事件检测每个对象
针对类别未知的对象进行高速、类别无关的开放世界目标检测,我们提出了使用事件相机的 DEOE 方法,该方法在时空一致性的基础上,结合了快速事件感知的骨干网络和解耦的物体性质分类头,实现了对新对象的定位以及背景过滤的强大能力。实验证实了我们提出 - CVPR面向鲁棒的事件引导低光图像增强:一个大规模真实世界事件图像数据集和新方法
利用机械臂轨迹追踪技术,构建了一个室内外真实场景的大规模事件图像数据集,提出了一种基于事件引导的适用于真实低光场景的图像增强方法 EvLight,通过多尺度整体融合分支和信噪比引导的区域特征选择策略,显著超越了基于帧的方法。
- ICLREventRPG: 基于关联传播指导的事件数据增强
提出了一种利用事件相机的脉冲神经网络生成稳定准确的类激活图和显著性图的关联传播方法,并基于此方法提出了 EventRPG,用于提高脉冲神经网络的数据增强效果,并在多个目标识别任务中取得了最新的对象识别准确率。
- 补充事件流和 RGB 帧用于手部网格重建
通过融合事件相机和 RGB 相机的数据,EvRGBHand 可以解决 RGB 相机和事件相机在手部网格重建中的不足,并通过 EvRGBDegrader 在具有挑战性场景下实现有效的泛化,降低数据获取成本。
- SGE:基于灰码和事件相机的结构光系统
通过将格雷码引入事件式结构光系统,我们采用了一种高速、准确的深度估计方法,充分利用传感器带宽,实现了与最先进的扫描方法相媲美的精确度,并在数据采集速度上超越它们(提高了多达 41 倍),而不牺牲准确性。我们的方法为超高速、实时和高精度的深度 - EE3P:事件驱动的周期性现象属性估计
使用事件相机对周期性现象进行测量的一种新方法,通过计算事件空间中时空窗口的相关性来估计频率,并通过峰值之间的时间差计算周期,该方法是非接触的且无需标记物,评估结果显示在周期性现象的三个实例中,相对误差低于 0.04%。
- 基于事件的运动放大
提出了一种由事件相机和传统 RGB 相机组成的双摄像头系统,结合了事件流的时间密集信息和 RGB 图像的空间密集数据,以实现对高频运动的广泛和经济有效的放大,通过深度网络解决了高频运动和微小运动放大的问题。
- 事件到视频转换用于高空目标检测
使用事件相机收集航拍图像由于图像传感器的能效较高而具有吸引力,然而,事件相机使得后续图像处理复杂化,尤其是在对象检测等复杂任务中。本文研究了事件流在航拍对象检测中的可行性,并证明了密集事件表示与对应的 RGB 帧之间性能存在显著差距的因果关 - 基于频谱引导的特征增强网络用于事件中的人物再识别
事件相机在计算机视觉领域具有重要潜力,特别是在隐私保护方面。然而,与传统相机相比,事件流通常包含噪声,并且具有极其稀疏的语义,给事件驱动的人物重识别(Event Re-ID)带来了巨大挑战。为了解决这个问题,我们引入了一种新的事件人物重识别