使用 GNN 去噪自编码器生成分类权重以进行小样本学习
本研究提出了一种使用去噪自编码器计算置信度得分的新方法,并展示了这种置信度得分可以通过确定其局部极大值来正确识别接近训练分布的输入空间的区域,从而解决神经网络模型的过度概括问题。
Sep, 2017
提出了一种自监督的新方法,叫做 Denoising Masked AutoEncoders,可以通过加入高斯噪声和随机掩蔽来训练生成原始图像的编码器 - 解码器模型。使用该模型作为基分类器,能够显著提高下游分类任务的性能,并且在 ImageNet 数据集上建立了新的最先进结果。
Oct, 2022
使用 meta-recognition 模型通过 autoencoder 方法,学习简洁的模型代码,并通过 meta-generative 模型构建任务特定模型参数,实现比 fine-tuned 基线网络更低的损失和与最先进的元学习算法相匹配的性能,同时还能够识别对模型预测有影响的训练样本和预测获取哪些附加数据将对改善模型预测最有价值。
Jul, 2018
使用大型预训练 Transformer 模型进行迁移学习任务已经成为自然语言处理(NLP)领域的主要趋势之一,本论文提出了一种三阶段技术来调整基础模型以适应分类任务。
May, 2024
本文介绍了一种通过利用生成自编码器的潜在句子表示来实现可控制文本生成的方法。作者提出了一种改进自动编码器的方法,被称为 DAAE,该方法可以在维持生成质量的同时,提高模型中的潜在空间几何性,从而实现了通过简单潜在向量算术进行全零文本风格转换。
May, 2019
本文理论证明了用 BCE 训练的 DAE 能够在数据空间中向高概率区域梯度下降,进而在实验中通过噪声数据生成和对初始数据的迭代应用 DAE 进行数据向高概率区域的改进。
Aug, 2017
本文研究了对输入和隐层同时进行噪声注入的变分自编码器,提出了一种改进的目标函数。当输入数据有噪声时,传统的变分自编码器的训练方法不可行,这里提出了一种可行的训练方法。实验结果表明,在 MNIST 和 Frey Face 数据集上,提出的去噪变分自编码器(DVAE)的平均对数似然比 VAE 和重要性加权自编码器更好。
Nov, 2015
提出了一种新的基于元学习的图分类模型 Meta-GNN,能够在非欧几里得领域解决节点分类问题,并在多个基准数据集上实现了较大幅度的性能改进和任务适应能力的提高。
May, 2019
本文提出一种基于自动编码器(autoencoder)的快速域适应方法来处理无线通信中信道改变的问题,该方法相比传统方法使用少量标记数据,不需要重复训练自动编码器,并且基于高斯混合密度网络(MDN)提出了一个正则化的参数适应方法。
Aug, 2021