AAAISep, 2020
通过解耦场景和运动来增强无监督视频表示学习
Enhancing Unsupervised Video Representation Learning by Decoupling the Scene and the Motion
Jinpeng Wang, Yuting Gao, Ke Li, Jianguo Hu, Xinyang Jiang...
TL;DR提出了一种解耦场景和物体运动信息的 DSM 方法,通过构造正负剪辑来加强模型对物体运动信息的关注,减少场景信息的影响,并在两项任务上进行实验,发现在 UCF101 和 HMDB51 数据集上动作识别任务的准确率分别提高了 8.1%和 8.8%。