高效多尺度多模态瓶颈变压器用于音视频分类
提出了一种名为 AVT 的新颖的音视频识别方法,利用视频 Transformer 在时空上的表示来提高动作识别的准确性,并通过音视频瓶颈 Transformer 减少跨模态复杂度,融合自监督目标,而进一步引入一个屏蔽音频片段损失,以学习 AVT 中的语义音频活动。在多个数据集上的实验及消融研究一致表明 AVT 方法的有效性。
Jan, 2024
该论文介绍了一种新的参数高效的视听变压器 MA-AVT,采用深度模态对齐来实现对应的多模态语义特征的对齐,通过联合单模态和多模态令牌学习,引入冻结的模态共享变压器,使模型能够学习到每种模态的独立表示,并关注它们之间的跨模态关系。此外,在编码阶段引入块对齐性学习以对齐粗粒、细粒的层次特征,并引入鲁棒的判别前景挖掘机制以抑制每种模态中的背景特征。通过在 benchmark AVE、VGGSound 和 CREMA-D 数据集上进行的大量实验,该方法在性能上取得了显著的改进。
Jun, 2024
该论文提出了一种基于多模态视频变换器 (MM-ViT) 的纯 Transformer 方法,其能够从压缩视频领域的多个可用模态中获取信息并实现动作识别,采用多个可扩展模型变量来处理来自多个模态的大量空间和时间令牌,进一步探索其丰富的模态间互动和效果,并比较了三种不同的跨模态注意机制。该方法在三个公共的动作识别基准测试(UCF-101,Something-Something-v2,Kinetics-600)上表现出超越现有技术的性能,既高效又精确。
Aug, 2021
提出了一种名为 Multiscale Multiview Vision Transformers(MMViT)的 transformer 模型,它引入了多尺度特征地图和多视角编码。该模型可以在不同的分辨率下处理输入的多个视图,并使用交叉注意力块将不同视图的信息融合在一起,从而实现对输入的复杂高维表示。在音频和图像分类任务上,通过实验证明了 MMViT 的有效性和达到了最先进的结果。
Apr, 2023
通过利用多种多样性的模态,如 RGB,光流和音频,以及仅具备视频级别注释的多模态暴力检测模型的学习,我们提出了一种新的弱监督多模态暴力检测方法,明确解决了信息冗余,模态不平衡和模态异步性等三个关键挑战,进一步提出了一种时间一致性对比损失来语义对齐成对融合特征。在最大规模的 XD-Violence 数据集上的实验表明,提出的方法实现了最先进的性能。
May, 2024
我们提出了一种使用无标签数据学习多模态表示的框架,利用无卷积的 Transformer 架构。通过使用多模态对比损失训练 Video-Audio-Text Transformer (VATT),我们从三个模态中提取丰富的多模态表示,并在视频动作识别、音频事件分类、图像分类和文本到视频检索等下游任务中对其性能进行评估。VATT 不需要监督预训练,其视觉 Transformer 在 Kinetics-400 上实现了 82.1%、在 Kinetics-600 上实现了 83.6%、在 Kinetics-700 上实现了 72.7%、在 Moments in Time 上实现了 41.1% 的最高准确率,并且将 VATT 迁移至图像分类任务中,其 ImageNet 的最高准确率达到了 78.7%。VATT 的音频 Transformer 在 AudioSet 上实现了 39.4% 的 mAP,而不需要监督预训练,表现出模型的泛化能力。
Apr, 2021
本篇论文介绍了一种基于 transformer 的新颖架构,使用多层的融合瓶颈来进行多模态融合,实现了在多个音视频分类基准测试上的最新的结果,同时降低了计算成本。
Jun, 2021
通过对多个视频字幕数据集的正确组合,我们在 MSRVTT 和 LSMDC 基准测试上提出了一种新的文本到视频检索任务的最新技术,成果展示了在无微调的情况下,单一模型在两个数据集上实现了最先进的结果。
Mar, 2021
本文提出基于 Transformer 的多模式机器翻译 (MMT) 与视觉注意力机制相结合的模型,并使用带标签的短语 - 区域对齐的辅助信号指导其视觉注意力机制,实现目前最佳 BLEU 和 METEOR 分数的提升。
Jan, 2022
利用多模态表示,通过自动语音识别模型转录语音并通过预训练翻译模型将转录文本翻译成不同语言,结合文本和音频特征使用级联交叉模态变压器 (CCMT) 模型来实现语音分类任务,该模型在 ACM Multimedia 2023 计算语音学挑战中获得不错的性能,并在 Speech Commands v2 和 HarperValleyBank 对话数据集上超过了之前的研究成果。
Jan, 2024