本技术报告介绍了我们在 CVPR-2022 AcitivityNet 挑战赛中获取的第一名的解决方案,该解决方案旨在为长型未修剪视频中的特定类别的动作实例定位时间边界,并且通过提出 Context-aware Proposal Network (CPN) 等创新技术,在提高精度方面大有改进。
Jun, 2022
介绍了一种新的 Temporal Convolutional Networks 模型,可用于对视频中动作的细粒度分割和检测,具有高效性和良好的表现。
Nov, 2016
本文提出了一种 Temporal Context Aggregation Network(TCANet)来生成高质量的动作提案,通过本地和全局的时间上下文聚合和补充以及逐步边界细化,等等一连串的动作建议生成算法,以增强方法的临床普适性和可应用性。
Mar, 2021
提出了一种统一的时间卷积网络方法,可以逐层捕捉低、中、高层次时间尺度上的关系,在三个公共操作分割数据集上以视频或传感器数据实现了优越或竞争性能,并且可以在较短时间内训练完成。
Aug, 2016
探讨在视频中使用卷积神经网络和循环神经网络来分类和定位活动的不同方法,并提出了一种实现方法,最终开发出了一个在 CVPR ActivityNet 2016 挑战中实现了竞争力结果的简单灵活的神经网络架构。
本技术报告分析了我们在 Activitynet Challenge 2020 中使用的一种时间动作定位方法,该方法利用视频级别特征信息训练多个视频级别动作分类模型,并应用 BMN 等方法产生高质量的时间提案,再通过级联结构网络 Refine Network 和多种模型融合方法,实现了在 HACS 比赛中 Rank1 的好成绩。
Jun, 2020
本研究旨在提出一种基于时间卷积网络的新型提议模型以解决时间行为定位中行为提议的低质量问题,并在该领域取得了最先进的性能结果。
Jul, 2017
该论文提出了一种称之为 “时间段网络” 的视频级框架,可以学习视频中的动作模型,并在四个具有挑战性的动作识别基准测试中实现了最新的性能。
May, 2017
本论文提出了 Temporal Compositional Modular Network (TCMN) 模型,该模型结合自然语言描述和视觉信息,通过树形注意力网络自动细分为描述主事件、情境事件和时间信号三部分,再使用两个模块计量视频片段与细分描述间的相似度和位置相似度,通过 late fusion 方法组合 RGB 和光流两种数据进行训练,实验证明此模型在 TEMPO 数据集上表现优于现有方法。
Aug, 2019
本文提出了一种概念级别的时间卷积层(CTC),用于训练深度行动本地化神经网络,通过在每个概念上分别使用多个时间滤波器捕捉不同概念的共同时间模式,极大地丰富了表示能力,通过堆叠 CTC 层,提出了一种深度概念级别的时间卷积神经网络(C-TCN),在 THUMOS'14 上将 mAP (%) 从 42.8 提高到 52.1,相对提高了 21.7\%。