提出一种终身学习算法,通过维护和完善内部特征表示,使前面学习所得的知识能够迁移并应用于接下来的学习任务中,从而提高样本利用效率,并通过实验证明,与现有的终身学习方法相比具有更高的效率。
Oct, 2021
该论文引入了一种新的终身学习方案,其使用自编码器以保留以前任务的信息并控制新环境下的功能调整,从而显著减少了任务遗忘率。
Apr, 2017
本文深度阐述了最近在表征学习中以自编码器为核心模型的研究进展,分析了三种主要的机制来实现信息分离和分层组织特征,探讨了表征学习中的隐式和显式监督的重要性,并通过失真率理论分析了自编码器表征学习的优缺点和任务需求的先验知识对表征学习的影响。
Dec, 2018
本文回顾了无监督特征学习和深度学习领域中的最新进展,讨论了学习良好的数据表示的适当目标,以及表示学习、密度估计和流形学习之间的几何联系。
Jun, 2012
本文提出了一种基于 Meta-learning 的多任务线性回归算法,该算法能够通过低维线性表示快速学习多个相关任务,同时将这些知识传递到新的未见过的任务中,并提供了信息论下限,证明了该算法的高效性。
Feb, 2020
本文提出一种新的方法,通过共享基于低维学习的环境编码来明确地连接无模型和有模型的强化学习方法,该方法能够捕捉到总结性抽象,同时具有模块化的特点,因此具有良好的泛化能力和计算效率,并在较小的潜在状态空间中进行计划。此外,此方法还能恢复足够低维的环境表示,从而为可解释的人工智能、探索和迁移学习开辟了新的策略。
Sep, 2018
本文研究了多视角数据下的特征表示学习问题,比较了基于神经网络的多种技术,提出了一种新的深度自编码器,通过随机优化方法探索了小批量相关性目标函数,最终发现基于相关性的表现效果最佳。
Feb, 2016
本研究提出了一种新颖的用于关系表示学习的框架,该框架结合了传统的一阶逻辑和自动编码原理,使用逻辑程序而非神经网络进行原始表示和潜在表示之间的映射,将学习视为约束优化问题,得到的潜在表示在关系学习任务中表现优异,相较于深度学习方法,该框架更为准确、可解释性更强、更具灵活性。
Mar, 2019
本文提出了一种利用卷积自编码器将图像转化为线性子空间并进行深度子空间聚类的新方法,通过在编码器和解码器之间插入多个线性层和一个新型的损失函数来提高模型性能。实验结果表明,该方法在多个真实数据集上均显著超越同类方法。
Jan, 2020
利用自动编码器构建通用嵌入框架,针对复杂的表格数据进行表征学习,提出改进的重构误差计算方法,得到更好的重构质量。
Feb, 2024