通过多任务表示学习理论改进少样本学习
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
多任务强化学习 (MTRL) 通过共享表示,来克服代理程序普适性技能泛化的长期问题,本文介绍了在 MTRL 中学习共享多样性表示的一种新方法,称为 MOORE,它通过专家混合生成的表示的共享子空间来促进任务之间的多样性,研究表明 MOORE 在 MiniGrid 和 MetaWorld 两个基准测试中超过了其他相关基线,成为 MetaWorld 领域的最新技术成果。
Nov, 2023
本文提出了一种基于主动学习技术的算法,用于估计每个源任务与目标任务的相关性并进行采样,以便更好地利用大数据源任务的力量并克服目标任务样本的稀缺性,并证明了在线性表示类上使用我们的算法可以在相同错误率下节省源任务采样复杂度。同时,作者通过实验结果显示了该方法在真实的计算机视觉数据集上的有效性。
Feb, 2022
本文研究了多任务学习领域的一种新方法,使用名为 Sharpness-aware Minimization 的训练技术,以提高单任务学习的通用性和多任务学习的性能。实验表明,该方法在多个应用程序中都有很好的表现。
Nov, 2022