对抗性跨域行为识别及协同注意力
本文提出了一种基于领域自适应的行为识别方法,使用对抗学习在跨域场景中学习跨域动作识别,从而实现对低光条件下的人类行为进行识别,并在 InFAR 和 XD145 动作数据集上取得了 SOTA 表现。
Oct, 2022
本研究提出了一种名为 ATCoN 的新的注意力机制深度神经网络,以解决视频领域无源域自适应的挑战,该网络通过学习特征一致性和源预测一致性来提高时间一致性,并使用预测置信度优化局部与整体时间特征,该方法在不同领域的动作识别基准中表现出卓越的性能。
Mar, 2022
本文介绍一种基于 CoDT 模型的在线聚类算法来应对跨域三维动作识别问题,该算法利用了源域和目标域之间的标签数据及未标签数据,并提出了一种协同聚类策略来保证特征聚集性和伪标签的生成。
Jul, 2022
本研究采用弱监督和跨领域转移学习的方法,结合深度卷积神经网络和长短时记忆网络,实现从未剪辑的网络视频中,对于精细的动作定位识别,并使用大量的数据集如 FGA-240 和 THUMOS 2014,得到了令人信服的结果。
Apr, 2015
设计了一个针对视频数据的统一框架,同时规范化跨模态和跨领域特征表示,通过对 UCF、HMDB 和 EPIC-Kitchens 等领域适应性行动识别基准数据集的实验,证明了方法的有效性。
Aug, 2021
本研究提出了一个更大规模的视频领域自适应数据集 UCF-HMDB_full,并探究了不同的 Integration 方法以及通过指定领域距离来显式关注时间动态的方法 TA3N 来实现更有效的域适应。
May, 2019
本文介绍了 Contrast and Mix(CoMix)的新对比学习框架,旨在为无监督的视频领域适应学习具有判别不变性的特征表示。与现有方法依靠对抗学习进行特征对齐不同,我们利用时间对比学习通过最大化未标记视频在两个不同速度下的编码表示的相似性以及最小化不同速度下播放的不同视频的相似性来弥合领域差距,还利用背景混合提出了一种用于时间对比性损失的新型扩展,从而允许每个锚点附加附加正物,增加视频领域适应的语义分享。此外,我们还使用目标伪标签集成了有监督的对比性学习目标,以增强视频领域适应的潜在空间的可区分性。在几个基准数据集上进行的广泛实验验证了我们所提出的方法的优越性。
Oct, 2021
通过将问题描述为域适应问题,该研究提出了混合时间域适应模型,以在帧和视频级别特征空间中对齐嵌入特征,并进一步与域注意力机制相结合,以便更有效地进行域适应。在 GTEA、50Salads 和 Breakfast 数据集上验证了该方法目前的有效性。
Apr, 2021
通过利用弱监督网络图像,提出了一种能够将图像转移到视频领域的深度学习分类器,使用 Siamese EnergyNet 网络结构来优化空间注意力图的能量函数,解决了基于网络图像训练的分类器到视频上显著下降的问题。
Aug, 2017
本文提出了一种跨模态共识网络以解决弱监督时间动作定位任务中现有特征提取器提取的不是任务特定特征的问题,并使用了跨模态注意机制和相互学习来产生更有代表性的特征。在 THUMOS14 和 ActivityNet1.2 数据集上的实验结果表明,此方法产生的特征实现了时间动作定位的最新成果。
Jul, 2021