该研究对两种不同方法进行了广泛调查研究,即迁移学习和元学习,以解决机器学习中有限数据的问题,并得出了在不同条件下两种方法的表现并评估了训练数据集大小对它们的影响。这项综合性探索为确定在任何情况下选择最适合的方法提供了见解。
Oct, 2023
本文提出了一种联合训练方法,将迁移学习和元学习相结合,从而在少分类、少样本以及多分类、多样本任务中均可获得更好的泛化性能。
Sep, 2018
利用 “学习转移(L2T)” 框架,从之前的转移学习经验中学习反思功能并利用其来自动确定最佳的转移方法和转移内容,以此来发现更多可以转移的知识。
Aug, 2017
综述了异构迁移学习方法的最新发展,为未来的研究提供了系统的指南,包括自然语言处理、计算机视觉、多模态和生物医学等各种应用场景。
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
本文研究了一种更为现实和具有挑战性的转移学习设置,其中源任务和目标任务在时间上不断变化,我们提出了一个基于元学习的通用框架 L2E,它能够有效地在动态任务之间传递知识、快速适应新目标任务、减轻历史目标任务的灾难性遗忘,并且可灵活地结合任何现有的静态转移学习算法,验证实验表明该框架的有效性。
Jul, 2022
本综述对转移学习的 40 多个代表性方法进行了系统总结,从数据和模型的角度介绍了同质转移学习的机制和策略,并通过实验证明了在不同应用程序中选择适当的传输学习模型的重要性。
Nov, 2019
本文介绍深度学习中的迁移学习,包含核心原理和方法、面临的基本问题、未解决的问题以及工具库和基准测试等方面的内容。
Jan, 2022
本文探讨了深度学习中的迁移学习的效果与代价,结果提供了关于使用迁移学习的指南。
Nov, 2022
Leap 是一个基于元学习的框架,通过在学习过程中跨任务间传递知识,从而在计算机视觉任务上优于竞争方法,且可以在涉及数百万梯度步骤的强化学习环境中实现跨学习过程的知识转移。
Dec, 2018