- eMoE-Tracker:基于环境 MoE 的 Transformer 用于鲁棒的事件导向目标跟踪
提出了一种基于变换器的事件引导跟踪框架 (eMoE-Tracker),通过学习环境的可学习属性来动态学习属性特定的特征,从而改善目标信息和背景之间的交互和可辨识度,使得在各种条件下都能取得新的 SOTA 性能。
- E2GS: 事件增强的高斯点云投射
使用 Event Enhanced Gaussian Splatting(E2GS)方法,结合事件数据和高斯分层方法,以提高图像去模糊和产生高质量的新视角合成,并在综合实验中展示了较快训练和渲染速度(140 FPS)
- EvSegSNN: 事件数据的神经形态语义分割
通过将脉冲神经网络与事件摄像头相结合,我们设计了一种生物可行的编码器 - 解码器 U 型架构的语义分割方法,旨在在性能与资源使用之间进行权衡。实验证明 EvSegSNN 在 MIoU 方面优于最接近的最新模型,同时参数数量减少了 1.6 倍 - 事件相机去噪的无标签和非单调度量评估
为解决事件相机的噪声问题,提出了首个不依赖标签且非单调的评估指标 —— 连续对比度曲线的面积(AOCC)。该指标利用不同时间间隔内事件帧对比度曲线所围成的面积,通过保留边缘轮廓事件的对比度,来评估去噪方法的有效性。实验证明了该指标的有效性。
- 从模拟到真实:基于事件的通用低光帧插值与每场景优化
提出一种针对低光照条件下事件相机的视频帧插值的优化策略,利用场景的内部统计信息来处理低光照条件下退化的事件数据,提高对不同光照和相机设置的泛化能力。
- 嵌入式图卷积网络在 SoC FPGA 上的实时事件数据处理
本研究旨在利用事件相机解决传统视频系统的限制,在汽车领域中针对嵌入式实时系统进行集成,通过图卷积网络 (GCN) 的运用保证处理事件系统所需的吞吐量和延迟性。通过针对点云处理的 GCN 架构 PointNet++ 进行硬件优化,实现了模型尺 - CVPRFAPNet:一种高效的频率自适应基于点的眼动追踪器
利用点云作为事件表示来利用眼动任务中事件的高时间分辨率和稀疏特性,重新思考基于点的架构 PEPNet 并引入长期样本关系预处理的创新设计 FAPNet,以实现自适应跟踪和利用样本之间的时间相关性的频适应机制。在 SEET 合成数据集上,FA - 文本转事件:有条件文本输入的合成事件相机流
使用文本生成模型和扩散模型,本研究提出了一种用于创建新的标记事件数据集的方法,通过合成事件帧直接从文本提示生成平滑的移动对象事件流。根据不同文本语句,该模型能够生成真实人体动作的逼真事件序列,其分类准确率在 42% 至 92% 之间,展示出 - 仿微小眼跳的事件相机用于机器人学
通过在事件相机的光圈前安装旋转楔形棱镜,我们设计了一种基于仿生微眼球震动的事件感知系统,能够同时维持低反应时间和稳定的纹理外观。AMI-EV 硬件设备和软件解决方案被集成到一个系统中,并在标准相机和事件相机均无法提供满意结果的场景中得到了验 - CVPRMULi-Ev:保持未受干扰的 LiDAR 事件校准
MULi-Ev 是首个基于深度学习的在线框架,专为事件相机和 LiDAR 的外部校准而设计,通过实时校准调整来维持传感器对准度,在自动驾驶中能够实现 LiDAR 和事件相机的无缝集成,提高校准准确性,并在移动平台上树立了集成 LiDAR 和 - 无监督神经形态空中监视运动分割
通过在事件数据和光流信息上利用自监督变换器,我们提出的方法克服了事件驱动运动分割的限制,消除了人工注释的需求,并减少了参数调整问题,实现了在多个数据集上与现有方法相比的最新性能,适用于高动态航空平台上的高清事件摄像头在城市环境中处理各种类型 - EvGGS: 一种用于事件驱动广义高斯绘制的协同学习框架
通过事件输入,我们提出了首个基于事件的通用三维重构框架 EvGGS,它以前馈方式从事件输入中将场景重构为三维高斯场,并可以泛化到未见过的情况,无需重新训练。
- CVPR事件流超分辨率的双边事件挖掘与补充
本研究提出了一种双边事件挖掘和互补网络(BMCNet),旨在完全发挥每个事件的潜力,同时捕捉共享信息以相互补充,通过两流网络实现对每种类型事件的全面挖掘,并通过双边信息交换(BIE)模块促进两个流之间的信息交流,在事件的固有特性带来的无效信 - 事件驱动光流的向量符号架构
基于高维特征描述符的事件帧光流估计方法,在特征匹配方法论中取得了显著进展。
- 重新思考面向事件相机的高效有效的基于点的网络:EventMamba
EventMamba 是一个高效和有效的点云框架,通过优化网络结构实现了对时间信息的提取,并在分类和回归任务中表现出与基于帧的方法相媲美的结果,同时具有轻量级设计原则,实现了卓越的效率和效果。
- 自动驾驶中基于事件的深度目标检测:综述
事件相机在自动驾驶中利用事件数据进行目标检测具有竞争优势。该论文提供了事件相机在自动驾驶中目标检测的概述,强调了事件相机的低延迟和轻量级架构的竞争性优势。
- 基于事件的视频帧插值与边缘引导的运动细化
利用事件相机和边缘特征来提高视频帧插值的质量。
- 事件驱动视线追踪. AIS 2024 挑战调查
这篇综述论文回顾了 AIS 2024 基于事件的眼动追踪(EET)挑战赛,该挑战聚焦于处理使用事件相机记录的眼动并预测眼睛的瞳孔中心,通过此挑战激励高效的眼动追踪与任务准确度和效率之间的权衡,同时回顾和分析了参赛者提交的挑战简报中的创新和多 - 事件相机与单光子雪崩二极管相遇:高速、低带宽成像
传统相机在低光性能和高速成像之间存在权衡,长曝光时间捕捉足够的光会导致运动模糊,而短曝光时间会导致泊松受损噪声图像。我们介绍了一种传感器融合框架,将单光子雪崩二极管(SPAD)传感器与事件相机相结合,以实现低带宽要求下对高速低光场景的重建。 - 使用动态事件相机进行 3D 人体扫描
本文提出了一种新的基于事件的方法,用于 3D 姿态估计和人体网格恢复,通过移动事件相机,通过衰减光线雕刻 3D 体素,重建人体姿态和网格,并拟合统计身体模型,实验结果表明该方法在姿态和身体网格估计精度方面优于传统基于帧的方法。