重审零样本跨语言转移中英语的首要地位
该研究探讨了mBERT作为零-shot语言转移模型在跨语言任务上的运用,包括NLI、文档分类、NER、POS标注和依赖分析等五个任务。研究发现,mBERT在每个任务上都具有竞争力,并考察了其使用策略、语言无关特征和影响跨语言传输的因素。
Apr, 2019
研究多语言应用中,如何应用元学习来提高模型性能,通过实验表明在标准的监督学习、零样本学习和少样本学习的跨语言自然语言理解任务中,元学习对于15种语言始终有效。
Mar, 2020
本文研究了多语言语境嵌入在零样本跨语言迁移学习上的表现,并发现使用英语进行零样本设置时很难获得可重复的结果和一致的检查点,建议在零样本结果旁边提供oracle分数,通过避免任意差的检查点使结果更一致。
Apr, 2020
分析了massively multilingual transformers在零射击跨语言场景中的局限性,并表明在资源匮乏和对比较遥远语言的情况下通过多语言转换的跨语言转移实际上不太有效。通过几个低级和高级自然语言处理任务的实验,确立了源语言和目标语言之间的语言相似度以及目标语言的预训练语料库的大小与转移性能之间的相关性。另外,研究表明通过在源语言上调整细节,再在目标语言上进行少量微调的few-shot transfer在多语言转换中十分有效。
May, 2020
本研究针对少样本跨语言迁移问题进行了试验设计和成功案例分析,并提出了集成功效设计的实验方案。通过对六个不同自然语言处理任务的40组样本进行分析,阐明了字典特性在少样本迁移中的作用,并证明了简单的完整模型微调方法在少样本迁移中的有效性。同时,开放了部分样本,为标准化的跨语言实验设计提供了参考。
Dec, 2020
本文提出一种无监督的跨语言嵌入转换方法,其中使用Embedding-Push、Attention-Pull和Robust targets来处理语言嵌入之间的聚类差异,以提高跨语言转换的可靠性。 实验结果表明,该方法在零-shot跨语言文本分类任务上取得显着优于以往的工作,可以获得更好的多语言对齐。
Oct, 2022
本综述论文旨在调查不同因素对多语言预训练语言模型实现零-shot跨语言转移的贡献,提供了对过去研究的实证证据概要,并识别一致性结果以及解决矛盾之处,进而为未来研究提供参考点与指导。
May, 2023
通过使用语言适配器(LAs)解决NLP任务中的零射击跨语言转移问题,并结合多个源语言的语言适配器进行训练和测试,展示了在POS标注和NER任务上相对标准微调和其他强基线模型平均F1分数提高了3.2个点的改进。
Oct, 2023
预训练多语言模型的容量和效果已经得到确认,但对于零样本跨语言转移中的积极或消极转移现象以及语言选择的影响还需进一步理解,本研究提出了一种高效的方法,通过专用适配器单元将下游任务与语言分离,发现一些语言对其他语言影响不大,而一些未在预训练中出现的语言对不同目标语言具有极大益处或有害,我们发现没有任何一种语言对所有目标语言都有益,但奇怪的是我们观察到,之前未被多语言模型预训练见过的语言总是从任何语言的转移中受益,此外,我们利用模块化方法高效量化负面干涉并相应分类语言,最后,我们提供了一系列有希望改善目标语言性能的转移-目标语言配置。
Mar, 2024
本研究针对现有多语言信息提取研究中存在的局限性,提供了一种针对多语言跨转移学习的详细分析。通过探讨语言之间的距离以及结合的语言距离度量,研究揭示了在零样本多语言设置中优化数据选择的问题,从而为实现更广泛的多语言信息提取系统奠定基础。
Nov, 2024