Meta-Dataset: 从少量示例中学习的数据集
本文探讨了在整个标签集上进行全分类的简单方法,并通过此方法在多个基准测试中取得了与现有技术相当的表现。同时,本文还对元学习与全分类目标在少样本学习中的权衡进行了深入分析。
Mar, 2020
本文提出了一种基于深层神经网络的元特征提取器 Dataset2Vec 和基于 DeepSet 结构的元学习方法,在大规模数据集优化任务中将元学习应用于不同模式的数据集,实现了性能优于专家工程方法的元特征学习以及元学习辅助任务。
May, 2019
基于元学习框架,我们提出了一种端到端训练范式,通过整个训练集的信息与元学习训练范式相互增强,以解决少样本学习中训练成本高和性能欠佳的问题。而且,我们的框架是无模型偏见的,相比基准系统提升了约 1% 的性能。
Mar, 2024
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
本文提出了一个基于元学习的少样本词义消歧框架,用于从极少数标记实例中学习消除未见过单词的歧义。与传统的 Meta-learning 测试方式不同,本研究还探讨了在应对高度不平衡的多类别问题时,几个流行元学习方法在 WSD 任务中的优缺点。
Apr, 2020
该研究提出了一种易 - 难专家元训练策略和任务难度感知模块,用于优化元学习方法,使其在少样本分类任务上表现更好。该策略优先进行易任务的训练,再进行难任务的强化。实验结果显示,该方法在 miniImageNet 和 tieredImageNetSketch 数据集上可以获得更好的结果。
Jul, 2020
通过研究 meta-learning 和鲁棒性技术在基准文本和医学数据上的应用,我们发现 meta-learning 是基于文本的数据的合适框架,具有更好的数据效率和与 few-shot 语言模型可比的性能,并且可以成功地应用于医疗笔记数据,同时与 DRO 结合的 meta-learning 模型还可以提高疾病编码的最坏情况损失。
Dec, 2022