去噪对抗自编码器
自动编码器是无监督学习内部表示的有用框架,本研究将现有的去噪自动编码器扩展到在非线性函数和隐藏单元激活之前注入噪音,提供一种统一的策略来通过设计注入噪声的性质来开发新的内部表示,并表明通过罕见的、去相关、和信息分散的噪声,在深度网络中改善性能。与其他单层技术竞争 MNIST 和 CIFAR-10。
Jun, 2014
本文介绍了一种通过利用生成自编码器的潜在句子表示来实现可控制文本生成的方法。作者提出了一种改进自动编码器的方法,被称为 DAAE,该方法可以在维持生成质量的同时,提高模型中的潜在空间几何性,从而实现了通过简单潜在向量算术进行全零文本风格转换。
May, 2019
研究了一种基于自编码器的图像异常检测方法,发现传统方法在训练时存在离群点时导致异常检测性能降低的问题,使用对抗自编码器引入先验分布可以较好地克服该问题。
Jan, 2019
本文提出了一种新方法,即采用对抗逼近自动编码器(AAAE)来研究具有对抗逼近的潜在代码,从而提高重建质量并学习具有流形结构的潜在空间,同时不需要对潜在代码进行正则化。
Feb, 2019
本研究介绍了一种基于深度学习的无监督降噪方法,能够移除图像中的信号相关噪声和轴向相关噪声,无需干净图像或噪声模型作为输入,实验结果表明该方法优于现有的自监督和无监督图像降噪方法。
Oct, 2023
本文提出了一种表示学习方法,可以在多个不同的尺度下学习特征,在无监督的去噪自编码器框架内工作,观察到在训练期间当输入受到严重破坏时,网络倾向于学习粗粒度特征,而当输入仅稍微破坏时,网络倾向于学习细粒度特征。本文提出了一个定制的去噪自编码器,在训练过程中开始时使用高水平的噪声,随着训练的进行,降低噪声水平。我们发现所得到的表示可以在后续的监督任务上显著提高性能。在我们的最佳模型经过监督微调后,它在 CIFAR-10 数据集上,相对于排列不变方法中最低的错误率。
Jun, 2014
本文提出了一个鼓励自编码器进行中间值重构的惯化机制,并通过一个简单的基准测试任务和经验证明,表明我们的惯化机制极大地改善了在这种情况下的插值能力,并产生对下游任务更有效的潜在代码。
Jul, 2018
本研究提出了一种基于深度去噪自编码器和横向连接的无监督辅助学习模型,通过反向传播同时最小化监督和无监督成本函数的总和,避免了逐层预训练,显著提高了排列不变 MNIST 分类任务的效果。
Apr, 2015
本文提出了 “对抗自编码器”(AAE),它是一个概率自编码器,使用最近提出的生成对抗网络 (GAN) 通过匹配自编码器的隐藏代码向量的聚合后验分布与任意先验分布来执行变分推断。匹配聚合后验分布和先验保证从先验空间的任何部分生成都会产生有意义的样本。结果,对抗自编码器的解码器学习了一种深度生成模型,将所施加的先验映射到数据分布。我们展示了对抗自编码器如何在半监督分类,图像风格和内容分离,无监督聚类,降维和数据可视化等应用中使用。我们在 MNIST、Street View 房屋号码和 Toronto Face 数据集上进行了实验,并展示了对抗性自编码器在生成建模和半监督分类任务中取得了有竞争力的结果。
Nov, 2015