弱监督音视频来源定位的深入探究
本文提出了一种名为 EZ-VSL 的简单而有效的无监督音频 - 视觉源定位方法,旨在识别视频中的可见声源,其采用对齐音频和视觉空间的方法来实现,在 Flickr SoundNet 和 VGG-Sound Source 数据集上均取得了良好的表现,特别是在 CIoU 方面从 76.80% 提高到了 83.94%。
Mar, 2022
本文主要讲述了如何通过训练神经网络来定位视频中可见的声源,采用对图像难样本强化学习的方法以提升定位精度。同时,作者还介绍了一个新的数据集 VGG-Sound Source benchmark,并展示了该算法在其上的最先进性能。
Apr, 2021
本文提出了自监督预测学习 (SSPL) 方法,通过显式正样本挖掘以实现声音定位,将声音来源与视频帧的两个增强视图相结合,并引入了预测编码模块以帮助 SSPL 逐步聚焦目标对象和有效降低正向对难度。实验结果表明,SSPL 在两个标准的声音定位基准测试中优于现有最佳方法,在 SoundNet-Flickr 上将 cIoU 和 AUC 分别提高了 8.6%和 3.4%。
Mar, 2022
本项研究提出一种基于双流网络的无监督算法,用于在视觉场景中定位声源,并针对该算法所存在的误差问题通过半监督学习进行修正,从而增强了算法的可靠性和泛化性。
Nov, 2019
本文提出了一种无需数据注释的迭代对比学习框架,用于声音定位任务,在图像中预测的定位结果和从音频信号中推断的语义关系被用作伪标签,并通过迭代策略逐渐促进声源的定位。实验结果表明,该框架在声音定位任务上表现良好,优于现有的无监督和弱监督方法。
Apr, 2021
提出了一种音频 - 视觉空间整合网络,利用音频和视觉模态的空间线索来模仿人类在检测制造声音的对象时的行为,并引入了递归注意网络来递归地专注于对象,从而形成更准确的注意区域,通过利用音频 - 视觉模态的空间线索和递归地关注对象,我们的方法可以实现更稳健的声源定位,全面的实验结果表明了该方法优于现有方法。
Aug, 2023
我们开发了一个基于视听学习框架的两阶段音频可视定位方法来解决在自然生动的视频中需要定位多个声音源的问题,该方法能够有效地将声音与特定的视觉来源进行对齐。
Jul, 2020
本文的目标是在视觉场景中定位声源。我们的研究发现,之前的视听学习将语义匹配的音视频信息错误地分为负例,我们的方法直接将这些 “硬正例” 与响应图纳入对比学习目标,证明在 VGG-SS 和 SoundNet-Flickr 测试集上表现优异。
Feb, 2022
我们提出了一种利用 Tri-modal joint embedding 模型通过文本模态作为中间特征引导,在多源混合中分离语义音视源对应关系的 T-VSL 框架,该方法在训练期间通过预测混合中声音实体的类来引导细粒度的音视源对应关系的分离,展现了在测试期间对未见过的类别具有有希望的零 - shot 迁移能力。在 MUSIC、VGGSound 和 VGGSound-Instruments 数据集上的大量实验证明了该方法相对于最先进方法的显著性能提升。
Apr, 2024