该论文利用图卷积网络 (GCNs) 来建立动作建议图,通过使用两种关系来捕捉上下文信息和不同动作之间的相关性,以模拟不同建议之间的关系并学习强大的动作分类和本地化表示,实验证明该方法在 THUMOS14 上显著优于现有最先进模型。
Sep, 2019
本研究提出了一种多尺度空间图卷积和多尺度时间图卷积模型,通过分解相应的局部图卷积为一系列子图卷积,形成一个分层残差体系结构,使图卷积神经网络能够捕获空间和时间域中的短程和长程依赖关系,从而实现骨骼动作识别,该模型在三个基准数据集上表现出了显著的性能。
Jun, 2022
本篇文章介绍了一种称之为 Temporal Enhanced Graph Convolutional Network (TE-GCN) 的新模型,用于构建骨骼动作识别应用中的时间关系图,以提取骨架序列的时间动态。文章对两个广泛使用的大型数据集进行了广泛的实验,在动作识别中取得了最先进的性能,同时通过多头机制进一步探索时间关系图。
Dec, 2020
本篇论文提出了一种有效的 GCN 模块 DTGRM,用于捕获和建模视频帧之间的各个时间跨度的时间关系,并通过提出的自监督任务来增强模型的时间推理能力,这种模块在行为分割方面表现优于现有技术。
本文提出了一种基于图卷积网络的模型来自适应地整合多层次语义上下文到视频特征中,并将时态行为检测作为一个子图定位问题。实验证明,该模型不需额外监督就可以发现有效视频上下文,且在两个检测评测中均达到最优性能。
Nov, 2019
本文提出了一种基于图卷积的弱监督动作定位方法,使用相似性图形显式建模视频片段之间的相似性以及动作的子操作,最终在多个数据集上达到了弱监督动作定位的最新水平。
Feb, 2020
本文介绍一种基于堆叠时空图卷积网络的行为分割方法,利用不同特征节点、长度不定的特征描述符和任意时间边缘连接来处理复杂活动中的大规模图变形,使用编码器 - 解码器设计来提高模型推广能力和位置准确性,且能联合推断得到涵盖全面上下文信息的行为分割结果。实验结果表明,该方法在 CAD120 数据集中 F1 值上取得了 4.0% 的性能提升,在 Charades 数据集中 mAP 值上取得了 1.3% 的性能提升。
Nov, 2018
提出了一种统一的时间卷积网络方法,可以逐层捕捉低、中、高层次时间尺度上的关系,在三个公共操作分割数据集上以视频或传感器数据实现了优越或竞争性能,并且可以在较短时间内训练完成。
Aug, 2016
该论文主要介绍了一种新型的骨骼动作识别模型叫做 TGN,结合了多尺度图策略来提取骨骼序列的时空特征,得到更好的实验结果。
该研究提出了一种基于深度学习的 Activity Graph Transformer 模型,可以对视频进行端到端分析,精确定位和识别视频内的特定事件活动,并通过非线性图推理方法捕获视频内事件之间的复杂时间结构。实验结果显示此方法在三个具有挑战性的数据集上均优于当前领先的方法。
Jan, 2021