判别式循环稀疏自编码器
本文介绍了一种深度、生成式自编码器,它能够从数据中学习分层式分布式表示。通过基于最小描述长度原理的有效近似参数估计方法,我们证明了该方法在几个经典数据集上取得了最先进的生成性能。
Oct, 2013
提出了一种名为Normalization Propagation的非自适应标准化技术,它的作用类似于批量归一化方法,但其不依赖于批量统计数据,能够有效解决BN方法的缺点,同时具有更高的计算效率。
May, 2015
本文提出了一种基于卷积LSTM神经网络的可变比率图像压缩框架和架构,可以用于压缩缩略图以改善移动设备用户的体验,经测试在32×32的缩略图上,与JPEG、JPEG2000和WebP相比,我们的方法在相同存储大小下提供更好的视觉质量。
Nov, 2015
本研究提出了一种基于深度潜在随机变量的自然图像生成模型,其采用新型分布称为修正高斯,其中采用类似spike-and-slab的稀疏性,保持了有效的随机梯度变分推断的可微性;通过一个结构化后验分布估计函数的近似,提出了一种新型结构化变分近似方法,避免常规均场假设,并保持了生成模型的先验依赖关系,从而实现了具有许多层潜在随机变量的深度模型的联合训练。
Feb, 2016
本文提出了一种基于SISTA的可解释循环神经网络来解决序列稀疏恢复问题,这种结构的权值可以视为一个有原则的统计模型的参数。与传统的基于“黑匣子”模型的RNN相比,SISTA-RNN在特定的连续压缩感知任务中训练速度更快,且表现更好。
Nov, 2016
本文介绍了一种基于多层卷积稀疏编码模型的新型问题求解方法,并探究了这种算法在递归卷积神经网络实现中的应用。研究发现,这种方法在监督学习任务中优于传统的CNN模型表现。
Jun, 2018
本文提出了一种采用循环自编码器(RAE)和循环概率模型(RPM)的递归学习视频压缩(RLVC)方法,以充分利用视频帧之间的时间相关性,实验结果表明,该方法在 PSNR 和 MS-SSIM 方面都达到了最先进的学习视频压缩性能,优于默认的 x265 低延迟 P(LDP)设置和 SSIM-tuned x265 等。
Jun, 2020
稀疏自编码器在处理高维数据中提取低维表示方面具有实用性。然而,当测试时输入噪声与训练过程中使用的噪声不同时,其性能会显著降低。本文将单隐藏层稀疏自编码器形式化为一种转换学习问题,并提出了一个优化问题,导致了预测模型在测试时对噪声水平具有不变性。换句话说,同样的预训练模型能够泛化到不同的噪声水平。通过基于平方根 Lasso 的提出的优化算法,将其转换成一个新的计算效率高的自编码器架构。通过证明我们的新方法对噪声水平具有不变性,我们通过在去噪任务中使用提出的架构训练网络来评估我们的方法。实验结果表明,与常用的架构相比,训练模型在稳定性上在各种不同类型的噪声情况下有显著改善。
Jun, 2024