EV-SegNet:事件相机的语义分割
通过将脉冲神经网络与事件摄像头相结合,我们设计了一种生物可行的编码器 - 解码器 U 型架构的语义分割方法,旨在在性能与资源使用之间进行权衡。实验证明 EvSegSNN 在 MIoU 方面优于最接近的最新模型,同时参数数量减少了 1.6 倍,省去了批归一化阶段。
Jun, 2024
本文提出了一种基于动态视觉传感器的异步相机的新颖跟踪算法,该算法可以在极低光和噪声条件下,无需任何外部传感器,且无需任何特征跟踪或显式光流计算即可检测和跟踪不同移动对象。
Mar, 2018
提出了一种新的事件数据增强方法,通过引入场景中的随机移动物体的合成事件来解决覆盖问题;该方法在多个动态视觉传感器分类数据集上进行了测试,使得 top1 准确率相对提升了最多 6.5%;此外,还将增强技术应用于真实世界的汽车事件数据集,特别是对行人的检测准确率提高了最多 5%。
Jan, 2024
研究使用事件相机与主动像素传感器流进行端到端自动驾驶学习,提供了一种解决当前图像获取技术限制的方法,并使用卷积神经网络训练,该研究还提供了第一个标注的 DAVIS 驾驶记录开放数据集 DDD17。
Nov, 2017
通过在事件数据和光流信息上利用自监督变换器,我们提出的方法克服了事件驱动运动分割的限制,消除了人工注释的需求,并减少了参数调整问题,实现了在多个数据集上与现有方法相比的最新性能,适用于高动态航空平台上的高清事件摄像头在城市环境中处理各种类型的运动并处理任意数量的移动对象。
May, 2024
利用卷积神经网络从一对时间图像帧中模拟事件的方法,可克服事件相对于计算机视觉问题的限制。在大规模图像数据集上,通过这种模拟数据,训练用于对象检测和 2D 人体姿势估计的下游网络,能够成功推广到真实事件数据集上。
Dec, 2019
该研究介绍了一种使用静止事件相机在静态场景中实现事件转换为密集强度图像的方法,并通过时间映射神经网络将时序矩阵转换为强度帧。实验证明该方法在动态范围、细节和灰度分辨率方面表现出卓越的性能,并比其他方法在下游计算机视觉任务上表现出更好的性能。
Mar, 2024
本文提出了 DVSNet 的动态视频分割网络设计,使用了卷积神经网络和决策网络技术,以提高语义分割效率和降低计算工作量。在 Cityscape 数据集上进行的实验结果表明,该网络最高可以达到 70.4% 的 mIoU。
Apr, 2018