CVPRApr, 2024

T-VSL: 混合环境下的文本引导视听源定位

TL;DR我们提出了一种利用 Tri-modal joint embedding 模型通过文本模态作为中间特征引导,在多源混合中分离语义音视源对应关系的 T-VSL 框架,该方法在训练期间通过预测混合中声音实体的类来引导细粒度的音视源对应关系的分离,展现了在测试期间对未见过的类别具有有希望的零 - shot 迁移能力。在 MUSIC、VGGSound 和 VGGSound-Instruments 数据集上的大量实验证明了该方法相对于最先进方法的显著性能提升。