基于事件的移动物体检测的联合时空推理
本研究开发了一种基于事件的相机的方法,将问题转化为涉及多个运动模型的能量最小化问题,并利用时空图的形式下的输入事件数据的结构迭代地解决事件聚类分配和运动模型拟合两个子问题。实验结果表明,该方法具有很高的灵活性,在不同的场景中能够获取不同运动模式和移动物体的数量。
Dec, 2020
通过深度神经网络强大的目标理解,同时处理精确几何建模的一致轨迹估计,提出了一种基于联合时空优化的立体 3D 对象跟踪方法,在 KITTI 跟踪数据集上取得显著优于先前方法的定量评估结果,并在多个类别和大型数据集(KITTI 原始和 Argoverse 跟踪)上进行了广泛的结果报告以供未来基准测试。
Apr, 2020
本文介绍了一种基于事件相机的运动分割方法,可以成功应用于复杂的大规模室外环境,采用创新的分而治之流程结合状态理解模块和光流模块,以及基于 Transformer 的时间关注模块进行运动分割,在经典的室内 EV-IMO 基准测试和基于 DSEC 事件数据集的新生成的动态分割和跟踪基准测试中取得了最新的最佳表现。
Mar, 2024
本文提出了一种基于事件相机和深度神经网络的实时物体追踪方法,使用同步时间表面和线性时间衰减表示异步视网膜事件的信息,并通过独创的神经网络模型处理各种复杂的情况,如快速动态和低照度条件等使得实验结果表明该方法优于以往传统的物体追踪方法。
Feb, 2020
本研究提出了第一种基于事件相机的感知运动信息分割方法,通过建立在事件感应技术和运动补偿上的目标函数联合估计事件 - 目标关联,从而实现了场景中的独立运动目标分割和运动参数估计,并在公共数据集上取得了比最新技术研究成果高达 10% 的有效结果。同时,我们还首次量化评估了运动分割算法,达到了大约 90% 的准确度。
Apr, 2019
本文提出了一种基于神经网络的视频分割方法,用于区分视频帧中独立运动的物体,并利用对象运动、外观和时间一致性等多个信息源,通过对数据进行训练得到模型,经过评估表明该模型在 DAVIS、Freiburg-Berkeley 运动分割数据集和 SegTrack 等数据集上表现良好。
Dec, 2017
通过光流作为解释运动信号的底层信号,将移动信息与外观信息相结合,提出一种基于学习的 Spatio-Temporal Grouping 方法,成功地应用于封闭前景物体个体的分割的问题。
Feb, 2019
本文提出了一种称为学习时空分布和空间相关性的方法,它的能量可以作为普适的解决方案来完成所有类型的自然场景下的运动目标分割,通过在分布学习中引入深度学习网络和在空间相关性中引入随机贝叶斯细化网络的方法,从而大大改善了分割的效果。
Apr, 2023
本文提出一种新的方法,利用事件的高时空分辨率特性通过空时插值将事件引导具有随机比例因子的视频超分辨率任务。利用空时融合模块、时间滤波模块和空时隐式表示模块将 RGB 帧与事件的特征图结合来完成超分辨率恢复,实验结果表明,该方法显著超过以往技术。
Mar, 2023
本文提出了一种名为 ReMotENet 的网络,使用三维空间时间注意力的卷积神经网络进行对象的外观和运动建模,以实现在大规模家庭监控视频中快速识别相关运动事件,具有高效、紧凑、轻量级的优点。
Jan, 2018