开放集视频领域自适应的条件极值理论
通过特征水平领域自适应方法,该文提供一种学习判别式视频帧表示的方法,利用大规模无标签的视频数据,使得模型可以转移从大规模标记的静态图像中获得的判别性知识。实验表明,该方法可大幅度提升视频人脸识别性能,达到最先进的准确性。
Aug, 2017
该论文提出了基于领域自适应的跨域分类问题,通过联合子空间的学习,使用有标签样本辅助实现跨域特征投影不变性,并结合了一种监督的局部保持投影(SLPP)技术,同时在无监督和零样本学习条件下,在三个跨域自适应基准数据集上实现了最先进的结果。
Mar, 2019
设计了一个针对视频数据的统一框架,同时规范化跨模态和跨领域特征表示,通过对UCF、HMDB和EPIC-Kitchens等领域适应性行动识别基准数据集的实验,证明了方法的有效性。
Aug, 2021
本研究提出了一种名为ATCoN的新的注意力机制深度神经网络,以解决视频领域无源域自适应的挑战,该网络通过学习特征一致性和源预测一致性来提高时间一致性,并使用预测置信度优化局部与整体时间特征,该方法在不同领域的动作识别基准中表现出卓越的性能。
Mar, 2022
本研究针对动作识别中无监督视频域适应的挑战性问题,特别关注具有相当大的域差异而不是现有工作主要处理标记源领域和未标记目标领域之间的小域差异的情况。为了建立更真实的环境,我们引入了一种新的UVDA场景,称为Kinetics->BABEL,该场景在时间动态和背景偏移方面具有更大的域差异。为了解决源领域和目标领域之间的动作持续时间差异所带来的时间差异问题,我们提出了一种全局局部视图对齐方法。为了减轻背景偏移问题,我们通过时间顺序学习来学习时间顺序敏感的表示,并通过背景增强来学习背景不变的表示。我们通过实验证明,所提出的方法在具有大域差异的Kinetics->BABEL数据集上相比现有方法表现出显著的改进。代码可以在此https URL找到。
Nov, 2023
视频领域适应的对象化(但类别不可知)视频领域适应(ODAPT)框架通过利用目标领域中一组稀疏的具有类别不可知对象注释的帧来适应现有的动作识别系统,为新领域的适应提供了一种简单而有效的方法。
Nov, 2023
使用自主训练、伪标签、微调和师生框架等方法,这篇论文提出了解决视频领域适应性问题的方法,以在没有源数据的情况下实现源无关自适应,并取得了领先的实验结果。
Nov, 2023
本研究解决了视频动作识别中的无监督领域适应问题。我们的方法称为UNITE,利用图像教师模型将视频学生模型适应到目标域。UNITE首先使用自监督预训练来促进目标域视频的辨别性特征学习,使用教师引导的遮蔽蒸馏目标进行自训练。然后,我们使用视频学生模型和图像教师模型一起对目标数据进行遮蔽自训练,生成改进的伪标签来处理无标签目标视频。我们的自训练过程成功地利用了两个模型的优势,在不同领域之间实现了强大的迁移性能。我们在多个视频领域适应基准上评估了我们的方法,并观察到比以前报告的结果有显著提高。
Dec, 2023