本文提出了一种新的稀疏表示模型,该模型采用共享字典和多个类别判定函数来描述不同类别的信号,并提出了学习该模型所有组件的优化方法,进一步提高了手写数字和纹理分类任务的准确性。
Sep, 2008
本文采用概率模型研究了稀疏编码的本地最小值问题,在考虑超完备字典和有噪信号的情况下,证明了稀疏编码接近参考字典生成的信号的局部最小值,同时分析了噪声、信号维度、原子数量、稀疏度和观察数量等关键量如何随之缩放。
Oct, 2012
利用稀疏编码学习语音数据的复杂表示,提出基于先验的基函数集合可以偏置相位不变的解决方案。与无约束稀疏编码的表现相当,同时明确地表示相位作为空间移位。这种表示方法可以在很多感知和机器学习任务中得到应用。
Dec, 2013
本研究提出使用视觉中腹流的机制,构建计算模块以提取不变和有差别的音频表示,实现音频流派分类的无监督学习
Apr, 2014
利用高级别表示数据来帮助无监督学习任务的稀疏编码算法,通过 L1 正则化凸优化算法从无标签类别的高级别表示数据中推导出的优化解,以此描述使用稀疏编码的深度学习算法。
本论文探讨了如何利用无监督的声学特征来增强语音识别,其中,通过学习始终对某些变换和变形不变的音频信号表示,实现了对短小的语音样本的有效处理,从而极大地提升了元音分类的准确性并降低了样本复杂性。
Jun, 2014
本篇论文采用概率模型,证明了采用稀疏编码时在字典生成的参考信号附近可以找到局部极小值,同时考虑过完备字典、噪声信号和可能出现的异常值,这一分析是非渐近的,可以帮助理解信号维度、原子数量、稀疏度和观察次数等关键问题如相干性或噪声级别的比例关系。
Jul, 2014
本文介绍了一种新的基于裁剪小波分解的算法,可以用于更大尺寸的图像处理和信号处理,并结合在线稀疏字典学习算法进行自适应字典训练,得到大的可适应原子 - trainlets。
Jan, 2016
本研究提出了一种新的解释卷积神经网络的模型,即多层卷积稀疏编码模型,并解决了该模型展开等问题,进而把该模型用于无监督学习中的不同应用中,取得了有竞争力的结果。
Aug, 2017
本文提出了一种使用样本依赖性字典而不是共享字典进行卷积的新方法,从而允许捕捉大量的样本依赖性模式,同时保持在线学习效率,实验结果表明该方法比现有的 CSC 算法更快速高效。
Apr, 2018