提出了一种利用神经集函数和双层优化,通过任务插值来加强元训练任务分布,以提高泛化性能的新颖领域不可知任务增强方法 Meta-Interpolation,并在跨越图像分类、分子属性预测、文本分类和语音识别等多个领域的实验中进行了验证,结果表明 Meta-Interpolation 始终优于相关基线方法。
May, 2022
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
通过选择多样的任务进行小批量处理,我们研究利用任务关联的外部知识来改善训练稳定性,进而减少训练中的噪音。
Dec, 2023
本文提出一种基于生成模型的元任务生成方法,称为 LAtent Space Interpolation Unsupervised Meta-learning (LASIUM),通过从潜在空间中生成分组成群的对象,构建元任务的训练和验证数据,应用于少样本分类任务中的实验表明其性能优于或与当前无监督学习基线相竞争,并且该方法不需要手工调整,扩展性高。
Jun, 2020
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
本论文探讨了元学习在传递相关任务的知识方面的研究方向,发现在低任务多样性下,最先进的数据增强方法会恶化过拟合问题;为此,提出了一种称为 TaskMix 的简单方法以缓解过拟合问题和改善性能。
Sep, 2022
本篇研究了如何在少量标记数据的情况下进行监督学习,通过元学习来利用相似性,结合谱方法,提出了一种优雅的方法来充分利用小型数据集,只需适量的中型数据即可使大数量小标记数据的任务替代大数据任务。
Feb, 2020
这篇论文提出了一种基于类对潜力的贪心采样方法,以改善元学习中的少样本分类问题的普适性表现。
Jul, 2020
本文提出了一种基于元学习的新方法,通过学习一组不针对旧任务也不针对新任务的广义参数来避免深度神经网络的快速衰落问题,并在五个数据集上进行广泛实验,实现了明显的改进
Mar, 2020