通过学习时间一致性进行动作识别的无源视频域自适应
本研究提出了一个更大规模的视频领域自适应数据集UCF-HMDB_full,并探究了不同的 Integration 方法以及通过指定领域距离来显式关注时间动态的方法TA3N来实现更有效的域适应。
May, 2019
提出了两个大规模视频领域自适应数据集,并研究了不同的视频 DA 集成方法,展示了同时对齐和学习时间动态可实现有效对齐的效果,最后提出了一个基于时间注意力的对抗适应网络 TA3N,实现更有效的领域对齐,达到了四个视频 DA 数据集的最优性能。
Jul, 2019
该论文提出了一种基于类条件极值理论和对抗学习的视频行为识别域自适应方法,旨在解决标注数据昂贵和多数视频领域自适应算法仅适用于封闭集情景的问题。该方法在小规模和大规模跨域视频数据集上均取得了最先进的性能。
Sep, 2021
本文介绍了一种新的Temporal Attentive Moment Alignment Network模型,针对Multi-Source Video Domain Adaptation问题,通过动态对齐空间和时间特征矩阵,同时构建具有鲁棒性的全局时间特征以提高精度。作者还提出了相应的测试基准,实验证明该模型在Multi-Source Video Domain Adaptation问题上有着卓越的表现。
Sep, 2021
本文提出了一种基于循环域自适应(CycDA)算法的无监督图像到视频域自适应方法,通过利用图像和视频之间的联合空间信息,以及采用独立的时空模型来缩小图像和视频数据的间隔以应对空间域转换和模态差异的挑战,并在基准数据集上取得了最新的技术进展。
Mar, 2022
本文提出了一种针对时间序列数据的无源域适应方法(MAPU),通过随机屏蔽时间序列信号并使用一种新型的时间恢复方法从嵌入空间中恢复原始信号,以指导目标模型生成与源特征在时间上一致的目标特征,从而在避免噪声输入空间中的填充的条件下,显式考虑在时序数据上的适应性,实验证明MAPU相较于现有方法获得了显著的性能提高。
Jul, 2023
本研究针对动作识别中无监督视频域适应的挑战性问题,特别关注具有相当大的域差异而不是现有工作主要处理标记源领域和未标记目标领域之间的小域差异的情况。为了建立更真实的环境,我们引入了一种新的UVDA场景,称为Kinetics->BABEL,该场景在时间动态和背景偏移方面具有更大的域差异。为了解决源领域和目标领域之间的动作持续时间差异所带来的时间差异问题,我们提出了一种全局局部视图对齐方法。为了减轻背景偏移问题,我们通过时间顺序学习来学习时间顺序敏感的表示,并通过背景增强来学习背景不变的表示。我们通过实验证明,所提出的方法在具有大域差异的Kinetics->BABEL数据集上相比现有方法表现出显著的改进。代码可以在此https URL找到。
Nov, 2023
我们提出了一种用于视频目标检测的简单而有效的无源域自适应方法,STAR-MT。通过改进YOLOV方法,在包括噪声、气流湍流和雾霾等恶劣图像条件下,我们的方法始终提高了视频目标检测性能,展示了其在现实世界应用中的潜力。
Apr, 2024