Mar, 2024
uaMix-MAE:基于无监督音频混合的高效预训练音频 Transformer 调优
uaMix-MAE: Efficient Tuning of Pretrained Audio Transformers with Unsupervised Audio Mixtures
Afrina Tabassum, Dung Tran, Trung Dang, Ismini Lourentzou, Kazuhito Koishida
TL;DR提出了一种有效的 ID 调节策略 uaMix-MAE,通过对预训练的 MAEs 进行对比调节,以实现对特定任务的语义有效适应,并且通过操纵输入和虚拟标签空间中的音频样本来优化模型,实验结果表明在低 / 少样本设置中,所提出的模型在有限的无标签数据下相比不同的基准模型(如 AudioSet-20K)取得了 4-6% 的准确率提升。