混沌中求序:为物体检测排序事件表征
用深度卷积神经网络所学习的表达来实现视频事件检测,并探究如何利用完整的ImageNet层次结构进行深度网络的预训练,其中引入一种基于ImageNet全部21,814个类别和超过14百万图像的自下而上和自上而下的方法以解决过于特定类别和类别图像数量不足的问题,并通过对TRECVID Multimedia Event Detection 2013和2015数据集的实验验证,得到了超过标准预训练和融合其他模态的结果,取得了最先进的事件检测结果。
Feb, 2016
本文提出了一种新的多尺度位置感知核表示(MLKP)用于在目标检测中捕获深度特征中的高阶统计信息,通过将其集成到Faster R-CNN模式中,提高了检测器的性能,并在PASCAL VOC 2007、VOC 2012和MS COCO基准测试中显著优于现有的最先进方法。
Apr, 2018
本文介绍了将事件流转化成基于网格的表示的通用框架,其具有两个主要优势:(i)允许端到端学习输入事件表示,(ii)提供了一个统一记录大多数事件表示的分类法,并识别出新的事件表示方法。通过实验证明,我们的端到端学习事件表示的方法相对于现有技术方法,在光流估计和目标识别上都有约12%的改进。
Apr, 2019
本研究提出了一种通用的框架,将基于同步图像事件表示训练的模型转换为具有相同输出的异步模型,以便直接利用事件数据的本质异步性和稀疏性,并在目标检测和识别任务中实现了高达20倍计算复杂度的降低和24%的精度提高。
Mar, 2020
本文提出一种轻量级模型的通道维度配置方法,该方法可以在计算成本有限的情况下实现更好的性能,并在ImageNet分类和迁移学习任务中取得了显着的表现。
Jul, 2020
本文介绍了一种基于事件相机的物体检测任务的解决方案,包括了首个高分辨率大规模数据集的发布、一种新的递归架构和一种时间一致性损失函数,这些对于更好的训练结果至关重要,而且在需要高动态范围,低延迟且具有挑战性的光照条件的情况下比传统的基于帧的解决方案更加高效而准确。
Sep, 2020
本文提出了EventDrop,一种简单易于实现的方法,通过删除选择性的事件来增加异步事件数据的多样性,从而提高深度模型的泛化性能,实验证明可以在多种深度网络上显著提高泛化性能。
Jun, 2021
通过实验证明了在异常检测领域,表示能力过于强大会导致性能的下降,提出了一个与表示充分性和过于强的表达之间的基本权衡有关的理论玩具模型。
Jun, 2023
最近在事件相机研究中,通过使用原始稀疏形式的数据进行处理,凭借其独特的特点(如高时间分辨率、高动态范围、低延迟和抗图像模糊性),取得了一些进展。其中,基于图卷积网络(GCNs)的事件数据分析方法令人期待。然而,在该领域的当前研究主要集中在优化计算成本上,却忽视了相应的内存成本。本文综合考虑了执行时间、可训练模型参数数量、数据格式要求和训练结果等因素,进行了不同图卷积操作的比较分析,结果显示,相较于最先进方法使用的操作,特征提取模块的参数数量减少了450倍,数据表示的大小减少了4.5倍,同时保持了52.3%的分类准确率,比最先进方法提高了6.3%。为了进一步评估性能,我们实现了目标检测体系结构,并在N-Caltech101数据集上评估了其性能,结果显示其在0.5的mAP下达到了53.7%的准确率,并达到了每秒82个图的执行速度。
Jul, 2023