CrossAligner & Co: 面向任务的跨语言自然语言理解的零-shot传递方法
本文针对零资源的多语言任务导向对话系统进行零样本自适应的提出,使用极少量的平行语词来优化对齐的跨语言词级表示,并采用潜变量模型处理不同语言间类似句子的变化,实验表明,我们的模型在零样本情况下对自然语言理解任务的适应性优于当前最先进的模型。
Nov, 2019
该研究提出了Attention-Informed Mixed-Language Training (MLT)方法,用于跨语种任务定向对话系统的零样本适应。该方法通过利用极少的任务相关平行词对来生成代码交换句子,并利用注意层给出的分数提取源单词,最终实现了显著的零-shot适应性能提升。
Nov, 2019
研究多语言应用中,如何应用元学习来提高模型性能,通过实验表明在标准的监督学习、零样本学习和少样本学习的跨语言自然语言理解任务中,元学习对于15种语言始终有效。
Mar, 2020
分析了massively multilingual transformers在零射击跨语言场景中的局限性,并表明在资源匮乏和对比较遥远语言的情况下通过多语言转换的跨语言转移实际上不太有效。通过几个低级和高级自然语言处理任务的实验,确立了源语言和目标语言之间的语言相似度以及目标语言的预训练语料库的大小与转移性能之间的相关性。另外,研究表明通过在源语言上调整细节,再在目标语言上进行少量微调的few-shot transfer在多语言转换中十分有效。
May, 2020
本文提出一种多任务编码-解码模型,通过多语言领域内语料库和英文-逻辑形式对标数据,在没有平行语料的情况下完成跨语言的语义解析,模型加强了语言无关编码,显著优于传统基于翻译的算法,有时能与有监督模型的上线媲美。
Apr, 2021
本文对于使用不同语言进行零样本跨语言转移的多语言模型进行了研究,发现高资源语言如德语和俄语在多数情况下能够更加有效地进行迁移学习,即使训练集是自动从英语翻译而来。同时,该结论对于多语言零样本系统有着重要影响,并且应该指导未来的基准设计。
Jun, 2021
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
通过使用预训练模型,我们提出了一种零样本跨语言转移的新方法,它能够在低资源语言上实现任务感知的双语信息对齐,并利用未标记数据进行自我训练,从而实现多种任务上的最新技术提升,无需并行语料库或翻译模型。
Oct, 2023
通过使用语言适配器(LAs)解决NLP任务中的零射击跨语言转移问题,并结合多个源语言的语言适配器进行训练和测试,展示了在POS标注和NER任务上相对标准微调和其他强基线模型平均F1分数提高了3.2个点的改进。
Oct, 2023
本研究解决了在低资源语言中生成对话的挑战,现有方法依赖于大规模对话语料库。通过创新的跨语言代码切换方法,提出了零-shot对话生成模型ChatZero,并通过无监督对比学习来缩小源语言和伪目标语言之间的语义差距。实验结果表明,ChatZero在多语言数据集上表现出色,达到了监督学习的90%以上性能,且在其他基线中取得了最新的性能。
Aug, 2024