本文研究了对输入和隐层同时进行噪声注入的变分自编码器,提出了一种改进的目标函数。当输入数据有噪声时,传统的变分自编码器的训练方法不可行,这里提出了一种可行的训练方法。实验结果表明,在 MNIST 和 Frey Face 数据集上,提出的去噪变分自编码器(DVAE)的平均对数似然比 VAE 和重要性加权自编码器更好。
Nov, 2015
该论文提出了一种可以在数据流分析中自适应构建去噪自编码器 DEVDAN,并以单次学习为基础的方法,通过网络重要性估计来自动添加或修剪输入特征,从而提高分类精度并适应不断变化的环境。
Sep, 2018
本文介绍了一种通过利用生成自编码器的潜在句子表示来实现可控制文本生成的方法。作者提出了一种改进自动编码器的方法,被称为 DAAE,该方法可以在维持生成质量的同时,提高模型中的潜在空间几何性,从而实现了通过简单潜在向量算术进行全零文本风格转换。
May, 2019
该研究提出了一种名为 APuDAE 的深度学习框架,利用去噪自编码器(DAE)以自适应方式净化样本,并提高目标分类器网络的分类准确度并使其更加鲁棒。
Aug, 2022
该研究针对线性去噪自编码器 (DAEs),探究了输入噪声是如何影响学习的,并发现当正确调整时,噪声可以帮助 DAEs 忽略低方差方向,同时学习重构高方差方向,与标准正则化自编码器相比,噪声具有相似的正则化效果,但具有更快的训练动力学。
Jun, 2018
本文提出了一种基于深度学习的图像压缩架构,利用卷积自编码器的优势达到了更高的编码效率,并利用主成分分析来产生一个更加能量紧凑的表示,实验结果表明,该方法相对于传统的图像编码算法在 Kodak 图像数据库上获得了 13.7%的 BD 速率降低,而且与 JPEG2000 具有类似的复杂度。
Apr, 2018
本研究采用进化算法来搜索优化简单的卷积自编码器,用其进行图像恢复任务,无需采用对抗训练和复杂的损失函数,实验结果在 CelebA 和 SVHN 数据集上表现出色。
Mar, 2018
该论文提出了一种基于自编码器的语音识别方法,使用分类交叉熵和互信息作为目标函数,有效提高音频降噪和增强的效果。
Mar, 2022
本文提出了一种基于现有预训练 DPM 模型的图像重建通用方法 PDAE,实现了比 Diff-AE 更好的训练效率和性能,并通过对分类器引导采样的机制填补信息缺失的空隙,使编码器对图像进行更好的重建,表现出了较高的有效性、效率和灵活性。
Dec, 2022
该研究证明了通过压缩数据维度以实现数据表示和压缩的有效性,并提出了一种普遍适用于非凸问题的优化算法(BAE),使得压缩模型输入有利于模型性能,并提出了一种用于计算 BAE 的高效算法,测试表明 BAE 能够提高模型在各类数据中的性能,并提高模型的稳定性和鲁棒性。
Oct, 2022