提出了一种支持深度无监督学习的网络,使用编码器到解码器的侧向快捷连接来支持层次结构,并通过去噪自编码器和去噪源分离框架进行学习,以学习不变特征。
Nov, 2014
研究表明,编码器和解码器之间的适当侧向连接可以使去噪自编码器(dAE)的更高层专注于不变表示。添加被允许调制侧向连接的不变特征可以将抽象不变特征翻译为详细的重构,并支持形成不同的不变池。通过在真实世界图像上进行实验,发现添加调制的侧向连接到模型中可以提高模型对输入的概率模型准确性,产生的表示不变度在更高层次上增加得更快,并支持形成多样的不变池塘。
Dec, 2014
该研究论文介绍了一种结合去噪和正则化的对抗性自编码器方法,用于学习用于推理的有用表示,并通过实验验证其对于分类性能和样本合成的贡献。
Mar, 2017
本文提出了一种新的自监督方法 SidAE,将 Siamese 结构和去噪自编码器相结合进行无监督预训练,证明其在多个数据集、设定和场景下优于两个自监督对照组,其中关键包括仅有少量标记数据的情况。
Apr, 2023
本文提出两种新型的深度混合架构,即深度混合玻尔兹曼机和深度混合去噪自编码器,用于处理半监督学习问题,并将其应用于数据流领域以实现终身学习,旨在提高辨别任务的整体预测性能。结果表明,与伪标注、dropout 整流器网络相比,所提出的结构具有更好的性能。
Nov, 2015
自动编码器是无监督学习内部表示的有用框架,本研究将现有的去噪自动编码器扩展到在非线性函数和隐藏单元激活之前注入噪音,提供一种统一的策略来通过设计注入噪声的性质来开发新的内部表示,并表明通过罕见的、去相关、和信息分散的噪声,在深度网络中改善性能。与其他单层技术竞争 MNIST 和 CIFAR-10。
Jun, 2014
使用大型预训练 Transformer 模型进行迁移学习任务已经成为自然语言处理(NLP)领域的主要趋势之一,本论文提出了一种三阶段技术来调整基础模型以适应分类任务。
May, 2024
本研究介绍了一种基于深度学习的无监督降噪方法,能够移除图像中的信号相关噪声和轴向相关噪声,无需干净图像或噪声模型作为输入,实验结果表明该方法优于现有的自监督和无监督图像降噪方法。
Oct, 2023
通过训练确定性网络与变分自编码器一起直接预测中心趋势的方法,以在计算成本的一小部分下取得超越无监督方法的结果。
本文研究了一种神经网络架构 Ladder Network,通过剔除或替换部分组件,探究了其各个组成部分的贡献及重要性,并提出了新型组合函数,在全监督和半监督任务中均取得了较好的性能表现。