本文介绍卷积稀疏表示作为一种稀疏表示的形式,其字典结构相当于一组线性滤波器的卷积。虽然最近已经开发出有效的算法来解决卷积稀疏编码问题,但相应的字典学习问题更加具有挑战性。此外,虽然已经提出了许多不同的方法,但缺乏彼此之间的彻底比较,使得很难确定哪个方法代表了当前的技术水平。本文既解决了这个缺陷,同时还提出了一些在某些环境下胜过现有方法的新方法。一组彻底的性能比较表明,现有和提出的方法之间存在着非常大的性能差异,并明确确定了最有效的方法。
Sep, 2017
本文提出了一种结合卷积组稀疏表达和总变差正则化的多模式图像重建方法,利用不同模式之间的冗余信息实现高质量的图像重建,并通过在线算法实现了卷积词典的非监督学习。该方法在联合强度 - 深度成像应用中取得了良好的效果。
Jun, 2017
本文介绍了一种新的基于裁剪小波分解的算法,可以用于更大尺寸的图像处理和信号处理,并结合在线稀疏字典学习算法进行自适应字典训练,得到大的可适应原子 - trainlets。
Jan, 2016
通过在线学习,将卷积稀疏编码(CSC)目标重新表述,并利用交替方向乘子方法(ADMM)求解其优化问题,显著提高了算法训练效率和图像重建性能,同时能够处理更大规模的图像数据集。
本文提出了一种使用样本依赖性字典而不是共享字典进行卷积的新方法,从而允许捕捉大量的样本依赖性模式,同时保持在线学习效率,实验结果表明该方法比现有的 CSC 算法更快速高效。
Apr, 2018
本文提出了一种用于在线连续学习问题的简单算法,该算法采用 kNN 分类器和通用预先训练的特征提取器,可以在小的计算预算下紧凑存储和利用整个数据流,既能减少过往数据的灾难性遗忘,同时也能快速适应快速变化的数据流,同时在 Continual LOCalization (CLOC) 和 Continual Google Landmarks V2 (CGLM) 两个大规模 OCL 数据集上取得了最新的技术水平。
May, 2023
本研究通过利用多层网络中的独立递归模块,提出了一种可行的高性能在线学习算法,能够有效地解决递归神经网络中长期信用分配的问题,并通过在合成记忆问题和长距离竞技场基准测试中的表现明确了该算法的有效性,为大脑学习和神经计算提供了新的思路。
该研究论文研究了机器学习中的在线学习理论和数据处理方法,尤其是在使用深度非线性网络时,针对分块数据渐进式训练的最佳策略问题进行了探索。
Jun, 2021
本文介绍基于分离结构的字典学习方法,使得学习过程中可以处理更大的图像块,并且字典在重建任务中被有效地应用。
Mar, 2013
本文介绍了一种可以在有限的内存下训练深度卷积神经网络的方法,可以使用较大的图像尺寸,并通过定量比较证明了该方法与传统方法等效。