多任务序列到序列学习
通过研究 11 个序列标注任务中的三种多任务学习方法,我们发现在大约 50% 的情况下,联合学习所有 11 个任务可以改善独立学习或成对学习任务的效果。我们还展示了成对多任务学习可以告诉我们哪些任务可以互惠,哪些任务在联合学习时可以受益。我们的一种多任务学习方法产生的任务嵌入还揭示了语义任务和语法任务的自然聚类。我们的研究打开了在自然语言处理中进一步利用多任务学习的大门。
Aug, 2018
本文为研究使用多任务学习 (MTL) 框架统一不同的含义数据集和训练单一模型,使用了五个数据集 (Geoquery,NLMaps,TOP,Overnight,AMR) 进行实验,我们发现在不增加总参数数量的情况下,全网络共享的 MTL 架构的解析精度与单任务的基线相当或更好,同时也提供了更好的组合推广性,我们还提出了一种可与广泛使用的比例抽样策略相比较的竞争性选择任务抽样方法。
Jun, 2021
提出了一种神经编码器 - 解码器机器翻译模型框架,该模型开始交替学习语法和翻译,逐渐将重点放在翻译上,实现了在相对较大的平行语料库(WMT14 英语到德语)和低资源(WIT 德语到英语)设置中的 BLEU 得分显着提高。
Apr, 2018
提出了一种基于多任务学习的框架,通过对单语数据的两个去噪任务和双语数据的翻译任务联合训练模型,显著提高了多语言 NMT 系统的翻译质量,并在零样本学习的情况下证明了该方法的有效性。
Oct, 2020
本文提出了一种基于多任务框架和序列到序列模型的语义解析方法,旨在解决语料数据不足限制,较少标注数据任务可以通过从大量标注数据任务中传递学习的方式得到提升,实验结果在自己的数据集中获得了 1.0% 到 4.4% 的准确度提升,在 ATIS 语义解析任务中,准确度提升了 2.5% 到 7.0%。
Jun, 2017
本文研究比较了三种自然语言处理中的迁移学习方法,即 STILTs、MTL 以及 MTL-ALL 的表现。结果显示,MTL-ALL 的性能不如其他两种方法,而在目标任务比较少的情况下,性能较好的是采用 pairwise MTL 方法。
May, 2022
本文介绍了对多任务学习的一系列评估,并且发现仅有其中 1 个语义序列标注任务受到显著的改善。同时作者还探讨了辅助任务和数据依赖条件与多任务学习效果的关系,结果发现,在取得成功时,具有紧凑和更均匀标签分布的辅助任务是更好的选择。
Dec, 2016
本文主要综述了自然语言处理领域中最近的多任务学习 (MTL) 的研究进展,重点关注深度学习、迁移学习和预训练等相关方向的最新成果及所面临的挑战。
Jul, 2020