超级适配器多语言机器翻译
本文提出在预训练的多语言模型上训练语言家族适配器,以促进跨语言转移。该模型一致优于其他基于适配器的方法,并证明了语言家族适配器提供了一种有效的将语言翻译到预训练期间未见过的语言的方法。
Sep, 2022
本文提出了一种通过使用共享的超网络生成适配器参数来学习所有层和任务的参数高效的多任务学习框架,从而在跨任务共享知识的同时,通过任务特定的适配器使模型适应每个单独的任务,并在已知的 GLUE 基准测试中实现了多任务学习的改进性能。
Jun, 2021
本文研究了在机器翻译领域中适配器的组成方法,旨在实现多领域和多语言(全资源场景)的参数效率适配,或在无法提供特定语言对的平行数据(部分资源场景)中的跨语言转移。适配器通常由语言特定的适配器和领域特定的适配器组成,但这篇论文发现了将两种适配器简单组合的方法往往会造成缺失语言的灾难性遗忘,因此提出了新的适配器组合方式以减轻这一问题,并最大程度地实现跨语言转移。通过此种最佳适配器组合方式,我们实现了在没有场内数据的源语言上平均提高 3-4BLEU,而在没有场内数据的目标语言上与反向翻译相结合也达到了类似的改进。
Oct, 2021
本文提出了一种适应能力强的适配器层,不同数据集可采用不同的激活函数及适配器层,并且可选择最优的适配器层,以达到与标准适配器层相近的性能表现。这种新型适配器层可使模型的存储及训练效率更高,并能在低数据情况下取得更好的性能表现。
May, 2022
本文研究了利用 adapters 实现单语言检索模型的跨语言迁移,证明了使用 adapters 的密集检索模型在语言迁移方面比整个模型 fine-tuning 更加有效。
Dec, 2022
通过适配器模块实现神经网络参数共享,避免针对每个任务都需要重新训练整个神经网络的问题。将适配器模块应用于 BERT Transformer 可以达到接近完全微调的性能,同时每个任务只需增加 3.6%的可训练参数,表现十分出色。
Feb, 2019
本文为多语言语音翻译(ST)提供了适配器的完整分析,其中适配器调整在 NLP 中作为微调的高效替代品,可使 ST 针对特定语言对进行专门优化,并从自动语音识别(ASR)任务和预先训练的 mBART 模型中进行转移,同时节省大量参数,具有与完全微调相当的可比结果。
Jun, 2021
通过采用自适应的、稀疏的多语言建模结构,实现共享参数和语言特定参数的学习,提高正向转移和减轻干扰,从而达到改善翻译质量和保持推理效率的目的。与标准 Transformer 相比,我们在多项基准测试中的表现都超过了强基准,特别是在使用 100 种语言的大规模 OPUS 数据集时,对于一对多、多对一和零 shot 任务分别提高了 2.1、1.3 和 6.2 BLEU 分数,未增加推理成本。
Apr, 2021
本研究提出一种在多语言预训练模型中解决遗忘问题的方法 -- 使用结构适配器仅更新 0.6%的总参数进行微调,取得了代码搜索和汇总任务的最新成果,并在跨语言和低资源情景下实现了良好的性能。
Mar, 2023
研究了适配器在信息检索领域中的应用,指出适配器 - SPLADE 可以优化只有 2%的训练参数,比全微调模型和现有的参数高效密集 IR 模型表现更佳,并探讨了适配器在跨领域 BEIR 数据集和 TripClick 上的领域自适应,以及 正确性的知识共享,从而完善了适配器在神经 IR 中的研究。
Mar, 2023