本文提出了一种结合半监督学习 (Semi-supervised learning, SSL) 和无监督分化表征学习的方法来增强自我聚合算法 (self-ensembling),并以多标签分类的方式在胸部 X 光图像上进行了验证。结果表明,该方法的性能得到了改善,并且其分化的表征也更加具有解释性。
Jul, 2019
本文介绍使用多个基于自监督学习的模型以及它们所提取特征的集成方法,改善语音识别任务的性能,并使用三种自监督模型 HuBERT、Wav2vec2.0 和 WaveLM 进行了实验,得到了较好的效果。
Jun, 2022
通过使用多个独立的子网络组成的集成模型来提高模型性能和可靠性,并通过新的损失函数鼓励模型之间的多样性,在保持计算效率的同时,有效地改善模型的不确定性估计。在计算机视觉、自然语言处理和基因组数据等多个领域的广泛实验中,我们的方法在预测可靠性方面取得了显著改善。
Aug, 2023
本研究提出融合自监督学习语音模型嵌入的集成框架,旨在探究其在音频和非语音任务中的表示能力,实验证明该框架普遍优于当前最先进的自监督学习语音 / 音频模型,特别在面对细粒度音乐任务时也表现出强大的能力。
Sep, 2022
本文通过广泛的实验和理论分析,系统研究了在数据集不平衡的情况下自监督学习的表现,并通过半合成实验验证了 SSL 学习了与标签无关但可转移的特征,进而提出了一种新的加权正则化技术,显著提高了 SSL 表示的质量。
Oct, 2021
自我监督学习在发音验证中表现出与有监督系统相近的性能,本研究通过对预训练的 WavLM 进行自我监督有监督微调并使用伪标签,实现了语音表示学习中的有监督性能,取得了 0.99%的 EER,接近有监督基线 0.94%的 EER。
Jun, 2024
大规模研究表明,在自监督学习中,网络架构起着重要的作用,因此作者提议在 SSL 环境中学习网络的权重和体系结构,从而提高性能并超越手工设计的体系结构。
Mar, 2022
本文提出了在神经网络中使用自监督学习方法来学习超级表示法,引入了特定领域的数据增强和适应的注意力架构,并通过实验证明该方法能够较好地预测超参数、测试精度和泛化差距,并能用于超越分布场景。
本文提出了一种用于在小部分标记的情况下训练深度神经网络的简单高效方法,采用自我模拟方案的集成预测来提高标签的未知性,从而使得在两个标准半监督学习基准测试中加快速度并实现更好的性能。
Oct, 2016
应用无对比标签的自监督方法 DINO 学习语音的 utterance-level 嵌入,通过在 speaker verification、speech emotion recognition 和 Alzheimer's disease detection 任务上进行转移学习表明该方法优于监督 x-vector。
Aug, 2022