基于图约束的人体运动分割数据表示学习
本研究提出了一种新颖的自监督学习方法来学习对于动态运动变化有响应的视频表征,通过训练神经网络来区分不同的时间变换的视频序列,使得无需人工标注数据即可准确地识别视频中的不稳定运动并增强神经网络在小数据集上的训练。该方法经过实验证明,可显著提高 UCF101 和 HMDB51 上的动作识别的传递性能。
Jul, 2020
本文提出了一种基于仿射子空间模型的特征运动物体分割新框架,该方法通过稀疏 PCA 表示原始轨迹,通过自动搜索最近邻点的稀疏表达来实现局部子空间分离,并提出了一种误差估计来处理缺失数据问题,最后通过谱聚类方法将不同的运动分割出来,实验证明该方法在精度和运算时间上优于其他运动分割方法。
Jan, 2017
基于状态空间模型,我们提出了一种新颖的无注意力空间时间模型,用于人体运动理解,兼具离线和实时应用的功能,并在各种动作理解任务中达到了变压器模型的性能水平。
Apr, 2024
本文提出了一种新颖的无监督活动分割方法,该方法使用视频帧聚类作为预文本任务,并同时执行表示学习和在线聚类。通过使用时间最优传输来利用视频中的时间信息,同时,在计算伪标签聚类分配的标准最优传输模块中加入保留活动时间顺序的时间正则化项。与之前的方法相比,我们的方法不需要在离线模式下存储整个数据集的特征,而是以在线模式每次处理一个小批量。 extensive evaluations on three public datasets, i.e. 50-Salads, YouTube Instructions, and Breakfast, and our dataset, i.e., Desktop Assembly, show that our approach performs on par with or better than previous methods, despite having significantly less memory constraints.
May, 2021
本文提出了一个基于无监督学习的方法来学习视频中的动作识别表示,该方法结合图像表示中的两种顶级目标 —— 实例识别和局部聚合,以及通过 IDT 描述符构成的集群。使用此方法,我们在 UCF101 和 HMDB51 动作识别基准测试中取得了优异的结果,并且成功捕捉了视频动态。
Jun, 2020
提出了一种解耦场景和物体运动信息的 DSM 方法,通过构造正负剪辑来加强模型对物体运动信息的关注,减少场景信息的影响,并在两项任务上进行实验,发现在 UCF101 和 HMDB51 数据集上动作识别任务的准确率分别提高了 8.1%和 8.8%。
Sep, 2020
本文介绍了一种自我监督的地理位置表示学习技术,使用无标注的 GPS 轨迹学习地理位置的语义特征并为地理计算机视觉任务提供特征表示,通过将 GPS 轨迹建模为地球表面的一些节点或像素,使用卷积、收缩自编码器学习压缩地理位置的可达性嵌入并取得了显著性能提升。
Oct, 2022
提出一种无监督学习框架,利用未标记的数据来学习视频表示,通过学习推断不同视图的三维运动,捕捉视角不变的动作特征,以及增强视角不变特征的学习方法,并在多个数据集上证明该方法对动作识别的有效性。
Sep, 2018
本文介绍了一种结合多种模型的多视角谱聚类框架,旨在解决 fundamental matrix 在运动分割中的缺陷,通过测试运动分割数据集,我们证明了这一方法在实际应用中的有效性。
Apr, 2018