通过未标记帧利用进行音频 - 视觉分割
本文提出了一种基于多模态基础知识的两阶段引导式音频 - 视觉分割框架用于消除分割中的背景噪音或离屏音,通过明确建立音频 - 视觉对应关系和在音频 - 视觉树上追踪校准对象标签的方式,实现了真实音频对象的有效分割。
Aug, 2023
我们提出了一种基于音频查询的 Transformer 架构 (AQFormer),通过在视觉特征中利用预定义的音频查询聚集对象信息,建立了音频和视觉模态之间的明确的对象级语义对应关系,并提出了一种基于音频的时间交互模块来在多帧之间交换与声音对象相关的信息,实验结果证明我们的方法在两个 AVS 基准测试集上取得了最先进的性能,尤其在 MS3 设置上取得了 7.1% 的 M_J 增益和 7.6% 的 M_F 增益。
Sep, 2023
语音 - 视觉分割(AVS)通过像素级精确在视觉场景中描绘可听到的对象。我们提出了一种新的跨模态语义过滤(CMSF)方法,以解决这个问题,并利用现成的多模态基础模型来准确地关联潜在的音频 - 掩码对。我们的无监督方法在复杂情景中的多个听觉对象上表现优异,特别是在现有监督 AVS 方法在重叠前景对象方面表现困难的情况下,仍能准确地分割重叠的听觉对象。
Sep, 2023
本文提出音频与视觉分割(AVS)问题,并通过构建 AVSBench 基准集进行了研究。通过引入一种新颖的方法 —— 时间上的像素级音视频交互模块,可以指导视觉分割过程,同时设计了正则化损失函数以鼓励音视频映射的训练,比较了几种现有方法,发现该方法有望在音频和像素级视觉语义之间搭建桥梁。
Jul, 2022
本文提出了一种用于定位视觉场景中声音对象的 Audio-Visual Segmentation (AVS) 的方法,其中使用了缩放和无注释的管道来生成 AVS 模型的合成数据,还提出了一种 Audio-Aware Transformer (AuTR) 结构,具有音频感知的查询式变压器解码器,以使模型更准确地进行分割。作者在合成和实际数据集上进行了广泛的实验,并取得了很好的效果。
May, 2023
通过建立视觉特征与声音的鲁棒相关性,利用双向生成框架实现音频 - 视觉分割的改进性能,在 AVS 基准测试中取得新的最先进表现水平,并发布源代码与预训练模型。
Aug, 2023
本论文提出了一种新的问题 —— 音视频分割(AVS),旨在为可听的视频帧中产生声音的物体输出像素级地图,并构建了第一个 audio-visual segmentation(AVS)基准,即 AVSBench,为声音对象提供像素级注释。通过使用一种基于时间的像素级音视频交互模块注入音频语义指导视觉分割过程并设计一种正则化损失来鼓励训练期间的音视频映射,实验表明我们的方法能够有效地解决这个问题。
Jan, 2023
提出了 AVSAC 方法,通过构建双向音频 - 视觉解码器并采用二向桥接设计,实现了音频线索的增强和音频与视觉模态之间的连续交互,从而缩小模态不平衡、促进整合音频 - 视觉表示的有效学习。此外,提出了音频 - 视觉帧同步策略,通过更好的同步音频组件与视觉特征,有助于更平衡的音频 - 视觉表示学习。大量实验证明,该方法在 AVS 性能方面取得了新的突破。
Feb, 2024
本文提出了一种 Audio Unmixing and Semantic Segmentation Network (AUSS),通过音频解混和遮罩注意力机制,旨在建立音频流与图像像素之间的细粒度对应关系;为了增强模型的鲁棒性,还引入了自监督模块,在 AVSBench 基准测试上实验结果表明,AUSS 在单一源和多源训练集上都可以取得最新的最优效果,成功地缩小了音频和视觉模态之间的差距。
May, 2023