本研究探讨了基于元学习算法的模型无关元学习算法(MAML)及其变体,以解决低资源自然语言理解任务中现有方法表现不佳的问题,并在GLUE基准测试中验证了该方法的有效性。
Aug, 2019
LEOPARD 是一种基于元学习的方法,使用少量标记的数据可优化跨任务进行学习,适用于 NLP 分类任务中的不同类数,并表现出比自监督预训练或多任务训练更好的泛化能力。
Nov, 2019
本文提出了一个基于元学习的少样本词义消歧框架,用于从极少数标记实例中学习消除未见过单词的歧义。与传统的 Meta-learning 测试方式不同,本研究还探讨了在应对高度不平衡的多类别问题时,几个流行元学习方法在 WSD 任务中的优缺点。
Apr, 2020
本文旨在为小样本自然语言处理元学习领域提供更清晰的定义、进展总结和一些常见的数据集,通过在具有丰富注释的各种任务上训练模型,实现在只有少量标记示例的情况下解决新任务的目标。
Jul, 2020
该研究提出了通过自训练和元学习技术解决多个自然语言处理任务中低标注数据带来的挑战的方法,并在六个基准数据集上实验证明了其在标注数据较少的情况下具有良好的效果。
Oct, 2020
该论文提出了一种元学习方法,可以在有限资源的情况下进行文档分类,并在少量标记数据的情况下取得了较好的效果,涉及跨语言、多语言的情况。作者还对多个元学习方法进行了比较和调整,提出了一种简单且有效的调整方式,并在多语言上取得了新的最佳表现。
Jan, 2021
本项研究探讨了如何通过自监督的方式,自动构建和提供能在自然语言处理中进行大规模元学习的任务分布,考虑了任务的多样性、难度、类型、领域和课程,结果表明,这些因素都会有意义地改变任务分布,从而显著提高元学习模型少样本学习的准确度。
Nov, 2021
这篇综述论文介绍了自然语言处理领域中元学习的概念和应用,指出当前技术需要更多的标注数据和适用域限制,而元学习技术则旨在提高学习算法的数据效率和适用范围,在NLP任务中表现出了显著的效果。此外,该论文总结了元学习在NLP中的任务构建、问题应用和发展趋势,为研究人员提供了相关工作的指导和吸引更多研究关注。
May, 2022
这篇论文提出了一种名为SUPMER的Self-sUpervised meta-Prompt学习框架,通过自主学习锚定Meta-Training任务和整体学习的方法,实现Prompt Tuning在few-shot learning任务中领先于其他方法,同时也加强了领域通用性的性能。
Mar, 2023
本研究解决了现有元学习方法在少样本文本分类中准确提取类别原型的难题,主要由于类内差异大和类间差异小。提出了一种新方法,通过构建任务自适应度量空间来减少类内差异并增强类间差异,同时利用最优传输技术估计类别原型,显著提升了分类精度。实验结果表明,该方法在所有基准数据集上均优于最新模型。
Oct, 2024