提出了一种支持深度无监督学习的网络,使用编码器到解码器的侧向快捷连接来支持层次结构,并通过去噪自编码器和去噪源分离框架进行学习,以学习不变特征。
Nov, 2014
本研究提出了一种基于深度去噪自编码器和横向连接的无监督辅助学习模型,通过反向传播同时最小化监督和无监督成本函数的总和,避免了逐层预训练,显著提高了排列不变MNIST分类任务的效果。
Apr, 2015
本研究通过在神经网络中添加重构的解码路径,探究了联合监督和无监督学习的应用,通过多种自编码器的比较,提高了在计算机视觉中的监督学习表现和 ImageNet ILSVRC 2012 协议下的准确率。
Jun, 2016
该论文提出了基于剪枝算法的神经网络优化方法,能够在不影响网络准确率的情况下减轻计算和内存开销,实现较高的参数压缩比。
Jul, 2016
本文提出了一种新颖的跨模态卷积神经网络(X-CNNs),通过在更大规模的网络拓扑中处理梯度下降专用的CNN,允许在网络的类似隐藏层之间进行无限制的信息流和/或权重共享,具有很好的泛化能力,最终表现优于标准CNN和FitNet4架构,特别在稀疏数据环境中表现更佳
Oct, 2016
本文研究了不同的自编码器架构和训练策略,以从图像中学习表征,研究了网络深度和容量对降维和泛化能力的影响,结果表明自编码器特征的分类结果与预训练卷积神经网络一样有辨别能力。以上发现可用于设计跨领域的无监督表征学习方法。
Nov, 2018
本文深度阐述了最近在表征学习中以自编码器为核心模型的研究进展,分析了三种主要的机制来实现信息分离和分层组织特征,探讨了表征学习中的隐式和显式监督的重要性,并通过失真率理论分析了自编码器表征学习的优缺点和任务需求的先验知识对表征学习的影响。
Dec, 2018
本文提出了一种基于卷积神经网络、自组织映射聚类和赫布学习的卷积自组织神经网络(CSNNs)的建模方法,可以在无需反向传播的情况下完成学习,利用所提出的建模方法可以用于图像分类领域并取得与Backpropagation方法相当的性能。
Jan, 2020
提出了一种称为MultiMAE的预训练策略,通过掩蔽解决了网络输入多样性和预测任务多样性的问题,从而实现可靠的跨模态与任务预测编码和转移学习。
Apr, 2022
本文阐述了神经网络在多任务学习方面的应用,介绍了神经网络过度参数化和权值修剪技术的理论基础,提出了一种新的神经网络表示结构,使得修剪神经网络可以在多个任务上实现性能提升,而不会出现遗忘或性能减少的问题。
Jul, 2022