波斯语自然语言推理:元学习方法
研究多语言应用中,如何应用元学习来提高模型性能,通过实验表明在标准的监督学习、零样本学习和少样本学习的跨语言自然语言理解任务中,元学习对于 15 种语言始终有效。
Mar, 2020
本文提出了一种元学习方法,通过细调源语言模型,结合相似示例中所传达的结构和语义信息来增强目标语言的命名实体识别。在五种目标语言上的实验表明,该方法显著优于现有的最先进方法。
Nov, 2019
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
该论文提出了一种元学习方法,可以在有限资源的情况下进行文档分类,并在少量标记数据的情况下取得了较好的效果,涉及跨语言、多语言的情况。作者还对多个元学习方法进行了比较和调整,提出了一种简单且有效的调整方式,并在多语言上取得了新的最佳表现。
Jan, 2021
应用元学习技术,使用模型无关的元学习 (MAML) 在不同的语言上进行训练,实现快速适应新语言,有效提高了在少量数据集下,处理跨语言 NLP 问题时的效果。
Apr, 2021
本文利用元学习算法 (MAML) 扩展低资源 NMT 问题,并通过多语言高资源任务进行学习来适应低资源语言,并利用全局词汇表解决不同语言的输入输出错配, 在使用 18 种欧洲语言作为源任务和 5 种不同的语言作为目标任务的情况下,相对于基于多语言、迁移学习的方法,表明所提出的方法显著优于现有方法,并仅需少量训练示例即可获得具有竞争力的 NMT 系统。
Aug, 2018
本研究探讨了基于元学习算法的模型无关元学习算法(MAML)及其变体,以解决低资源自然语言理解任务中现有方法表现不佳的问题,并在 GLUE 基准测试中验证了该方法的有效性。
Aug, 2019
本文主要研究阿拉伯语文本数据的分类,特别关注自然语言推理和矛盾检测。通过创建专用数据集并利用语言学上知识进行预训练,发现了具有竞争力的阿拉伯语特定模型(AraBERT),并成功应用于大规模任务评估及多任务预训练的首个阿拉伯语背景应用。
Jul, 2023