使用监督自编码器的半监督分类在生物医学应用中的应用
提出了一种半监督顺序变分自编码器 (SSVAE) 用于文本分类,在解码器中增加了标签信息,并使用一种新颖的优化方法减少了训练中的计算复杂性,实验结果表明该方法在 IMDB 数据集和 AG 新闻语料库上的分类精度显著提高,与之前的先进方法相当。
Mar, 2016
本文提出了一种称为 Structuring AutoEncoders 的神经网络,其可以使用弱监督形成结构化的低维空间,从而更有效地表示并分类数据。在基准图像数据集 MNIST、Fashion-MNIST、DeepFashion2 以及 3D 人体形状数据集上进行的实验表明,结构潜空间可以为进一步的分类任务和分类数据的有效选择的操作提供更高效的表征。
Aug, 2019
本文提出了一种名为 SDVAE 的半监督变分自编码器,其将输入数据转化为可解释和不可解释的特征表示,使用分类信息来规范可解释的特征表示,并使用强化学习来增强特征学习能力,此框架适用于图像和文本数据。
Sep, 2017
研究使用自编码器进行文本数据建模的监督学习方法,并利用 Bregman 散度加权得到自编码器的新损失函数,在 6 个情感分析数据集上显示其比竞争方法更有效,并同时展示了该模型能够利用无标签数据进行改进。
Dec, 2015
本文提出了一种新的自监督方法 SidAE,将 Siamese 结构和去噪自编码器相结合进行无监督预训练,证明其在多个数据集、设定和场景下优于两个自监督对照组,其中关键包括仅有少量标记数据的情况。
Apr, 2023
采用半监督学习方法来提高基于深度神经网络的自动语音识别中声学建模的性能,与无监督初始化后有监督微调不同,我们的方法通过小批量随机梯度下降同时利用未标记和标记数据,我们在 TIMIT 数据库上的基于帧的音素分类实验表明,该方法在等量标记数据和标准有监督训练相比表现更好,并且与基于图的半监督学习技术的最新误差率相比具有竞争力。
Oct, 2016
本文研究了自编码器的潜在空间(LS)属性,并提出了两种获得期望拓扑结构的 LS 配置方法。研究表明,利用几何损失项直接作用于 LS 的损失配置方法可以可靠地获得期望的 LS 配置,从而可以在 LS 中定义相似性度量来预测标签或估计多个输入的相似性,而无需使用解码器或分类器。研究还证明,使用所提出的方法训练的有监督自编码器在纹理分类方面表现良好,并且可以在没有微调的情况下很好地泛化到来自 LIP、Market1501 和 WildTrack 数据集的未见数据,甚至可以用于评估未见类的相似性。此外,通过跨数据集搜索和基于文本查询进行文本搜索的实验证明了预配置的 LS 相似性估计的优势,而无需使用语言模型。
Feb, 2024
本文提出了一种基于深度神经网络的模型 Canonical Correlated AutoEncoder(C2AE),在多标签分类任务中通过联合特征和标签嵌入派生一个深度潜在空间,并引入标签相关敏感的损失函数来恢复预测的标签输出,其能够灵活应对多种规模的数据集,与其他现有的多标签分类方法相比表现更加优异。
Jul, 2017
本文提出一种基于多任务学习的框架,通过利用大量的性别分类数据和说话人识别数据,结合采用对抗自编码器(AAE)进行半监督学习的方法,提高语音情感识别的性能,实现更高水平的情感识别表现。
Jul, 2019
提出了自标签增强的 VGAE 模型,包括自标签增强方法(SLAM),用于图的归纳学习,通过在模型训练中进行标签重建以利用标签信息,并采用节点遮盖方法生成伪标签来增强标签信息。实验证明在半监督学习设置下,我们的模型在节点分类上表现出明显的优势。
Mar, 2024