基于 3D 骨架的少样本动作识别:JEANIE 并不太天真
提出了一种基于 JEANIE 的 3D 骨骼动作识别少样本学习方法,包括动态时间扭曲、简单光谱图卷积、线性图神经网络骨干和基于相似性的损耗函数,达到了在 NTU-60,NTU-120,运动学 - 骨骼和 UWA3D Multiview Activity II 数据集上的最先进的结果。
Oct, 2022
基于关节时间和相机视角的对齐方法(JEANIE)用于骨骼序列对动作识别的支持查询序列进行时间视角对齐,实现了有监督和无监督助推学习融合,取得了最新的实验结果。
Feb, 2024
本文提出了一种新的方法,使用骨架序列(即人类骨架关节的 3D 轨迹)进行三维动作识别,并使用深度神经网络进行空间时间特征学习和长期时间信息学习。实验结果表明该方法具有很好的识别效果。
Mar, 2017
本文介绍了一种新的骨骼动作识别框架,名为 JOLO-GCN,它将人类姿态骨骼和轻便的联合信息结合起来,在两个流图卷积网络中使用联合对准光学流贴片(JFP)来捕捉每个关节周围的局部细微动作作为关键的中心视觉信息,这种组合方案有效地提高了性能,同时保持了计算和存储开销低。
Nov, 2020
本研究提出了一种基于 3D 流的增量二级空间注意机制,通过骨骼域引导,强调靠近身体关节区域的运动特征及其信息性,并提出了扩展的深度骨骼模型,用于学习最具有判别力的动作运动动力学,从而评估每个关节的信息性得分,并采用两个模型之间的后期融合方案来学习高水平的跨模态相关性,实验结果在当前最大和最具挑战性的数据集 NTU RGB+D 上表明,所提出的方法的有效性达到了最先进的水平。
Jun, 2023
本文提出了一个以深度度量学习为基础的单次动作识别方法,使用图像骨骼表示法,在嵌入空间中训练模型,在 NTU RGB+D 120 数据集中,实现了单次动作识别协议最新的 3.3%提升,在附加数据增强后提高了超过 7.7%。
Dec, 2020
本文提出了一种基于卷积神经网络的框架用于骨骼动作识别,通过自动选择重要的骨骼节点和提取时间段提案进行动作分类和检测, 在 NTU RGB + D 数据集上获得了 89.3%的验证准确性和 93.7%的 mAP。
Apr, 2017
本论文提出了一种自监督学习的视频对齐框架,利用 2D 骨架热图作为输入,通过自身在空间和时间域内的自注意力机制来提取有效的时空和上下文特征,同时通过基于 2D 骨架的热图增强技术进行自监督学习,取得了比 CASA 更高的准确度和对缺失和噪声关键点更好的稳健性,在不同的细粒度人体活动理解任务中表现优于先前的方法,如阶段分类、阶段进展、视频对齐和细粒度帧检索。
May, 2023
该论文提出了一种基于图像分类的骨架视频动作识别方法,通过图像映射和卷积神经网络构建实现了在多个数据集上的最新成果。
Apr, 2017
这篇文章介绍了一种针对 3D 人体动作识别领域的改进型骨架图像表示方法 ——Tree Structure Reference Joints Image(TSRJI),并运用于卷积神经网络,实现了最新数据集 NTU RGB+D 120 上的最优结果。
Sep, 2019