本文研究了多任务学习的方法,使用共享特征表示所有任务,并研究了线性和 ReLU 激活模型的理论。通过实验证明了任务数据的对齐有助于多任务训练和转移学习,特别地,我们的对齐方法比 BERT-LARGE 在 5 个 GLUE 任务上平均提高了 2.35%的得分,并设计了基于 SVD 的任务重新加权方案来提高多任务训练在多标签图像数据集上的鲁棒性。
May, 2020
本文探讨了用于神经语音翻译的多任务模型,并对其进行增强,以反映两个直观概念。精准的中间表示和神经关联的模式,参与模型的训练可以提高低资源语音转录和翻译任务的性能。
Feb, 2018
提出了一种神经编码器 - 解码器机器翻译模型框架,该模型开始交替学习语法和翻译,逐渐将重点放在翻译上,实现了在相对较大的平行语料库(WMT14 英语到德语)和低资源(WIT 德语到英语)设置中的 BLEU 得分显着提高。
Apr, 2018
通过引入四种递归神经层实现多任务结构信息融合,对多个相关任务间的复杂互动进行建模,从而在文本分类任务中显著提升相关任务的性能。
Jul, 2017
本文提出了一个基于对抗学习的多任务学习框架,在 16 个文本分类任务上的实验结果表明了该方法的优势,并证明了模型学习到的共享知识可以作为现成的知识轻松迁移到新的任务中。
Apr, 2017
通过应用多任务学习,已经在端到端语音翻译中取得了显著的改进。本文研究了不同任务之间的一致性,并提出了一种改进的多任务学习方法,通过缓解长度和表征的差异来弥合模态间的差距。实验证明我们的方法达到了最先进的结果。此外,当使用额外的数据时,我们在 MuST-C 英语到西班牙语任务上以当前最先进方法所需的 20.8% 的训练时间取得了新的最先进结果。
Nov, 2023
本文研究了在多任务学习框架下,辅助文本翻译任务对语音到文本翻译任务的影响及参数共享等解决方案,提出三种方法以提高翻译质量,实验结果表明该方法在几种语种翻译任务中相对于基线都达到了最新水平。
Jul, 2021
本文提出了一种基于多任务学习方法,利用源端的单语言语言资源来解决神经机器翻译中由于缺少平行文本造成模型质量差的问题,并采用语义分析、句法分析和命名实体识别等辅助任务以将语义和 / 或句法知识注入到翻译模型中,实现了在英法、英波斯和英越三种翻译任务上的有效性验证。
May, 2018
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
本文提出了一种多任务学习框架,利用文本数据来提高自动语音识别和语音翻译的性能,其中包括基于注意力的序列到序列建模、去噪自动编码器、机器翻译等技术。在英语语音识别任务中,该方法相对于基线线下降了 10~15% 的词错误率,在 MuST-C 任务中有 3.6~9.2 BLEU 的提高。
Oct, 2020