本研究开发了一种基于事件的相机的方法,将问题转化为涉及多个运动模型的能量最小化问题,并利用时空图的形式下的输入事件数据的结构迭代地解决事件聚类分配和运动模型拟合两个子问题。实验结果表明,该方法具有很高的灵活性,在不同的场景中能够获取不同运动模式和移动物体的数量。
Dec, 2020
本研究提出了第一种基于事件相机的感知运动信息分割方法,通过建立在事件感应技术和运动补偿上的目标函数联合估计事件 - 目标关联,从而实现了场景中的独立运动目标分割和运动参数估计,并在公共数据集上取得了比最新技术研究成果高达 10% 的有效结果。同时,我们还首次量化评估了运动分割算法,达到了大约 90% 的准确度。
Apr, 2019
通过在事件数据和光流信息上利用自监督变换器,我们提出的方法克服了事件驱动运动分割的限制,消除了人工注释的需求,并减少了参数调整问题,实现了在多个数据集上与现有方法相比的最新性能,适用于高动态航空平台上的高清事件摄像头在城市环境中处理各种类型的运动并处理任意数量的移动对象。
May, 2024
本文介绍了一种基于事件相机的运动分割方法,可以成功应用于复杂的大规模室外环境,采用创新的分而治之流程结合状态理解模块和光流模块,以及基于 Transformer 的时间关注模块进行运动分割,在经典的室内 EV-IMO 基准测试和基于 DSEC 事件数据集的新生成的动态分割和跟踪基准测试中取得了最新的最佳表现。
Mar, 2024
采用贝叶斯滤波框架和概率生成事件模型,利用感知到的事件的对比度残差为估计事件相机和环境位置的度量,解决了在已知环境下,仅使用事件数据定位的问题。
Oct, 2015
提出了一种使用图转换神经网络的新型基于事件的运动分割算法,用于处理事件流以揭示事件之间的局部和全局时空相关性,并在没有先验知识的情况下从背景中分割出移动对象。通过在公开可用的数据集上进行训练,并使用动态物体掩膜感知事件标签生成方法生成近似的地面真值标签,该算法在多个未见数据集上进行了严格实验,结果显示在动态背景变化、运动模式和多个不同大小和速度的动态物体存在的情况下,GTNN 的表现优于其他方法,平均运动分割精度 (IoU%) 和检测率 (DR%) 相应增加了 9.4% 和 4.5%。
Apr, 2024
提出了一种新的图表示方法将事件数据与图转换器相结合,用于准确的神经形态分类任务。通过广泛实验表明,该方法在仅有少量事件和有限计算资源的困难真实场景中表现出优异效果,为嵌入移动设备的神经形态应用开辟了道路。
Sep, 2023
本文提出了一种基于图谱谱聚类技术的无监督运动目标检测方法,可在事件数据中有效地检测运动目标。实验结果显示,该算法在公开数据集中的性能优于多种最先进的技术。
Sep, 2021
该论文介绍了一种基于神经网络的异步处理 Event-based Camera 事件流的方法,利用前一时刻的动态信息和灰度帧的关键特征,提取事件中的动态信息,相较现有同类研究结果表现优异。
本文提出了利用事件相机数据进行自我中心行为识别的两种策略,并将其应用于首个基于事件相机的视频数据集,结果表明,事件数据不仅可在不需要流计算的情况下提供与 RGB 和光流同等的性能,而且相比仅使用 RGB 信息提高了 4%的表现。
Dec, 2021