从视频中进行全局连续和非马尔可夫活动分析
本文介绍了一种新的无监督视频分割方法,采用迭代鉴别生成方法,通过学习视频视觉特征并建模时序结构,将复杂活动划分为多个子活动,并引入背景模型,验证结果优于现有无监督及弱监督方法。
Mar, 2018
通过学习生成模型的规则运动模式,提出两种基于自动编码器的无监督方法来感知视频序列中有意义的活动,并在定量和定性方面进行测试,表明其在异常检测数据集上具有竞争性表现。
Apr, 2016
本文提出一种基于场景图,利用图像序列提取关键交互特征并编码动作模式和上下文的方法,同时引入基于事件的自动视频分割和聚类,成功地实现了识别手 - 物体和物体 - 物体交互,并匹配不同受试者执行的同一活动。
Apr, 2023
本文提出了一种用于视频监控应用的自动识别人类活动的方法,将活动表示为类别组件的组合,并且提出了一种 Confident-Frame-based Recognition 算法来提高识别精度,该算法将高置信度的视频帧用作专门的局部模型来帮助分类其余的视频帧,实验结果表明了该方法的有效性。
Feb, 2015
VideoGraph 是一种图形表示方法,它能够代表几分钟长的人类活动并学习其基本的时间结构,成功地在 Epic-Kitchen 和 Breakfast 数据集上提出了相关工作的改进。
May, 2019
本文提出了一种通用的框架,利用新颖的提案方案和级联分类管道从未修剪的视频中准确检测各种活动,超越了现有最先进方法在 THUMOS14 和 ActivityNet 数据集上的表现。
Mar, 2017
使用混合图神经网络对视频进行复杂活动检测,通过对局部动态场景的图表达应用注意力和对整体长时间活动的时间图表达,提取特征并估计复杂活动类别及其开始和结束时间。在 ActivityNet-1.3、Thumos-14 和 ROAD 三个数据集上,所提出的框架优于所有现有的最先进方法。
Oct, 2023
该研究提出了一种基于概率生成模型的方法,可以通过对个体轨迹的观察,推断多个时间粒度上的协调递归结构组活动的描述,并演示了该模型在多种复杂场景中的表达能力。
Apr, 2016