一种用于定制模型训练的元学习方法
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的最高性能,验证了 MTL 方法的有效性。
Oct, 2019
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020
本文提出了一种基于熵和不等式优化的任务不可知元学习算法,可以在避免过度适应已有任务和提高元学习器泛化性能方面有效地解决少样本学习问题,并在少量分类和强化学习任务中表现优异。
May, 2018
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本文提出在 few-shot classification 问题中采用深度神经网络集成来解决分类器高方差的问题,通过引入新策略鼓励网络相互合作来提高分类性能,实验结果表明该方法在 mini-ImageNet 和 CUB 数据集上显著优于当前的 meta-learning 技术。
Mar, 2019