元调整的跨域少样本学习
本文提出了一种新的元学习框架,集成对抗域适应网络,旨在提高模型的适应能力并为新类别生成高质量的文本嵌入。在四个基准数据集上进行了大量实验,结果表明我们的方法在所有数据集上都明显优于现有技术,特别是在 20 个新闻组数据集上,1-shot 和 5-shot 分类的准确性从 52.1%提高到 59.6%和从 68.3%提高到 77.8%。
Jul, 2021
本文提出一种在没有访问元培训练集的情况下,利用预训练 MAML 检查点来解决新的 few-shot 分类任务的方法,通过结合对抗训练和基于不确定性的步长适应,以及对算法进行改进,在 SGD 和 Adam 优化器上,在同一领域和跨领域基准测试中优于 “基准” MAML,并表现出对基础步长的选择具有更好的鲁棒性。
Mar, 2021
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
META-MT 提供了一种新的基于元学习的方法来适应神经机器翻译系统 (NMT),可以使 NMT 模型很容易地适应多个领域的目标,同时需要极少量的领域数据。通过在模拟的离线元训练领域适应任务的基础上学习如何适应新的未见过的领域,我们将 NMT 系统的适应性视为元学习问题。我们在十个领域上评估了提出的元学习策略并展示了在很少的领域样例可用时,META-MT 可以显著优于经典的领域适应并且可以在只见到 4,000 个已翻译的单词 (300 对平行句子) 后比经典微调的 BLEU 指标高出多达 2.5 个点。
Apr, 2020
本文提出了一种新的元 - 混合网络,提出了利用少量标记目标数据来指导模型学习的想法,通过重新提出并将混合模块集成到元学习机制中,以及通过提出新的解缠模块和域分类器来提取解缠的领域无关和领域特定特征的方法,实现了缩小域差距的目的,从而使模型能够很好地推广到目标数据集。
Jul, 2021
针对 few-shot 分类在训练和测试分布之间的域变化导致在测试上性能下降的问题,提出了通过任务增强来改善归纳偏置的鲁棒性,具体来说,采用对抗任务增强方法来生成具有挑战性的任务,可以提供简单的即插即用模块来提高元学习模型在跨域通用性中的性能。
Apr, 2021
本研究提出了一种基于元学习框架的元学习 Few-Shot Learning 方法,其中利用一种简单而有效的元 Dropout 机制,防止神经元在元训练阶段过度协同。实验验证了该方法在目标检测领域的有效性。
Oct, 2022
本文提出 MetaAdapt,一个基于元学习的方法,旨在解决在社交媒体等新兴领域中针对虚假信息检测的数据稀缺性问题,具有更好的领域适应性、优秀的表现和大幅减少的参数。
May, 2023
本文提出了利用元任务之间的关系来辅助元学习的方法,分别考虑了在两种类型的元任务对上的关系,并提出了不同的策略来利用它们:1)有不相交类集的两个元任务,2)有相同类集的两个元任务,并给出了相应的新学习目标。然而由于实验中的一些错误,我们选择撤回本文。
Feb, 2020
本文提出了一种基于元学习的双自适应表示对齐方法,针对跨域小样本学习问题,在极少量样本的情况下,通过特征和分布的对齐,实现了更好的泛化能力及更高的成果。
Jun, 2023