自监督视频表示学习的掩模运动编码
我们提出了一种运动引导的掩蔽算法 (MGM),通过利用运动矢量来引导每个掩蔽的位置,从而更高效地利用视频显著性,与先前的最先进方法相比,在两个具有挑战性的大规模视频基准 (Kinetics-400 和 Something-Something V2) 中,我们为视频 MAE 提供了 MGM 中的关键装备,并取得了高达 +1.3% 的改进。此外,我们的 MGM 只使用了最多 66% 的训练时期,就可以获得与先前的视频 MAE 相等的性能。最后,我们展示了 MGM 在 UCF101、HMDB51 和 Diving48 数据集上对下游迁移学习和领域自适应任务的更好泛化能力,与基线方法相比,取得了高达 +4.9% 的改进。
Aug, 2023
本文介绍了一种新的视频自编码方法,采用运动引导的掩模策略,通过引入运动信息建立时间一致的掩模体积,从而提高视频自编码的性能。通过实验证明,该方法在视频预训练中能够更有效地处理时间一致性和信息泄漏问题。
Aug, 2023
从多视角捕获的视频可以帮助感知世界的 3D 结构,并对计算机视觉任务,如动作识别、跟踪等产生影响。本文介绍了一种从同步多视角视频中进行自监督学习的方法,通过交叉视角重构任务向模型注入几何信息。我们的方法基于掩码自编码器(MAE)框架,在同视角解码器的基础上,引入了一个独立的交叉视角解码器,利用交叉注意机制从源视角视频重构目标视角视频,以获得对视角变化具有鲁棒性的表示。针对视频,静态区域可以简单地进行重构,这限制了学习有意义表示的能力。为此,我们引入了一种动态加权重构损失来改进时间建模。我们在 NTU-60、NTU-120 和 ETRI 数据集上报告了最先进的结果,并在 NUCLA、PKU-MMD-II 和 ROCOG-v2 数据集上进行了迁移学习设置,证明了我们方法的鲁棒性。我们将提供代码。
Jan, 2024
本文提出了一种用于 3D 动作识别的 Masked Motion Prediction(MAMP)框架,通过对蒙面的空间 - 时间骨骼序列进行预测,实现对丰富语义区域的更好关注,进而提高自监督预训练的性能。经过对 NTU-60、NTU-120 和 PKU-MMD 数据集的广泛实验,表明所提出的 MAMP 预训练方法显著提高了基础的 transformer 模型的性能,并取得了最先进的结果。MAMP 的源代码可以在给定的网址上找到。
Aug, 2023
本文介绍了链接蒙版自动编码器(CatMAE)作为自我监督视频表示学习的时空学习器,该方法使模型能够估计可见补丁之间的运动信息,匹配前后帧之间的对应关系,并最终学习场景的演变。此外,还提出了一种新的数据增强策略,ViRe,进一步鼓励模型利用连续运动细节和对应关系来完成重建,从而增强模型的能力。与最先进的预训练方法相比,CatMAE 在视频分割任务和动作识别任务中取得了领先水平。
Nov, 2023
本文提出了一种基于去噪扩散的新框架,通过训练一个运动扩散模型来生成运动,然后通过去噪过程实现在观察到的运动条件下进行运动预测,并在现实任务中有效地实现了不同类别运动的切换,取得了良好的算法性能和结果。
Feb, 2023
本文研究了使用 VideoMAE 进行自主监督视频预训练 (SSVP) 的数据高效性问题,并通过适当的视频屏蔽达到了良好的表现,进而证明数据质量对 SSVP 更加重要。
Mar, 2022
为了理解多人场景,我们引入了 Social-MAE,一种基于 transformer 的带掩码自编码器框架,用于多人人体运动数据,并在高级社交任务中达到了最先进的结果。
Apr, 2024
本研究提出了一种新颖的自监督学习方法来学习对于动态运动变化有响应的视频表征,通过训练神经网络来区分不同的时间变换的视频序列,使得无需人工标注数据即可准确地识别视频中的不稳定运动并增强神经网络在小数据集上的训练。该方法经过实验证明,可显著提高 UCF101 和 HMDB51 上的动作识别的传递性能。
Jul, 2020
从大规模多视角视频数据中学习强大且可扩展的视觉表征仍然是计算机视觉和自动驾驶领域的一项挑战。我们提出了 MIM4D,一种基于双重遮罩图像建模(MIM)的新的预训练范例,它通过训练遮罩的多视角视频输入来利用空间和时间关系,从而构建伪 3D 特征并进行监督学习,以解决缺乏密集 3D 监测的问题。通过采用 3D 体积可微分渲染来学习几何表征,MIM4D 在自动驾驶中的可视表征学习任务中取得了最先进的性能,显著提高了多个下游任务的表现。
Mar, 2024