Argus++:利用重叠立方体建议的无约束视频流强健实时活动检测
本文提出了一种通用的框架,利用新颖的提案方案和级联分类管道从未修剪的视频中准确检测各种活动,超越了现有最先进方法在 THUMOS14 和 ActivityNet 数据集上的表现。
Mar, 2017
本研究提出了一个跨相机协作的分布式视频分析系统 Argus,通过利用物体的时空关联,在多个相机的重叠视野中避免冗余的处理任务,动态排序相机和对象检查序列,并灵活分配工作负载,实现低延迟的分布式处理。该系统在三个真实世界的重叠相机数据集上的评估结果显示,相对于现有技术,Argus 可以将对象标识的数量和端到端延迟分别减少多达 7.13 倍和 2.19 倍(相对于现有技术,分别减少了 4.86 倍和 1.60 倍),同时实现可比较的跟踪质量。
Jan, 2024
该研究引入了新模型 R-C3D 来进行连续未修剪视频流的时间活动检测,包括提取有意义的时空特征来捕捉活动、准确定位每个活动的开始和结束时间,并通过将原始 RGB 流与基于光流的运动流进行有效整合,进一步提高了检测性能。通过在三个基准数据集上的实验,该模型在 THUMOS'14 和 Charades 数据集上取得了最先进的结果,并证明其是一种通用的时间活动检测框架。
Jun, 2019
我们提出了一种基于 R-C3D 模型的视频流活动检测方法,通过提取关键的时空特征来定位和分类实现高效监测,该模型具有端到端的训练方式和较快的运行速度,在多个数据集上取得了最佳的效果。
Mar, 2017
本文探索在改进的 AdaFocusV3 框架上,统一时空动态计算的形式,通过在一些信息丰富的三维视频块上激活高性能网络以降低计算成本,并通过自适应轻量的策略网络在每个样本上根据测试时间的需求动态配置视频块数量,模型经过在 ActivityNet,FCVID,Mini-Kinetics,Something-Something V1&V2 和 Diving48 六个基准数据集上的广泛实验结果证明其显著比竞争算法更有效率。
Sep, 2022
本研究开发了一种低参数、模块化系统,具有快速推理能力,在有限数据集上完全可以进行训练,无需从大参数系统进行迁移学习。该系统能够准确检测并关联实际课堂视频中执行这些活动的学生,并开发了一个基于交互式 Web 应用程序来可视化长时间真实课堂视频中的人类活动地图。
Mar, 2024
本文提出了一种通过结合 R-C3D 模型、多实例学习以及图卷积网络,实现对活动图像 - 视频检索中噪声干扰的解决方法,并采用点到子空间距离的几何感知三元组损失来保持活动建议的结构信息。
Nov, 2019
我们的 Le3DE2E 解决方案用于统一的基于传感器的检测、跟踪和预测,在 CVPR 2023 无人驾驶研讨会(WAD)上的 Argoverse 挑战中展示。我们提出了一个统一的网络,包括检测、跟踪和预测三个任务。该解决方案采用了 Bird's Eye View(BEV)编码器,并进行了时空融合,生成用于多任务的统一表示。该解决方案在 Argoverse 2 传感器数据集上进行了测试,评估了 26 个物体类别的检测、跟踪和预测。我们在 Argoverse Challenges 的 E2E Forecasting 赛道上获得了检测、跟踪和预测的第一名。
Nov, 2023
本文提出了一种用于视频监控应用的自动识别人类活动的方法,将活动表示为类别组件的组合,并且提出了一种 Confident-Frame-based Recognition 算法来提高识别精度,该算法将高置信度的视频帧用作专门的局部模型来帮助分类其余的视频帧,实验结果表明了该方法的有效性。
Feb, 2015
本文提出了一种基于对象检测的两阶段模块化系统,用于在未裁剪的安全视频中进行时空动作检测,第一阶段使用层次聚类和时间抖动技术生成稠密的时空建议,第二阶段是一个 TRI-3D 网络,在生成的提议上执行动作分类和时态细化。实验结果表明本文提出的方法在区分不同时长、空间尺度范围内的动作检测方面效果显著。
Nov, 2018