研究了不同的任务调度方法以在多个任务(语言)上同时训练神经机器翻译模型,包括现有的非自适应技术和自适应调度技术,并考虑了隐式调度技术。这些方法使得多语言模型在低资源语言对(少量数据的任务)中表现更好,同时最小化对高资源任务的负面影响。
Sep, 2019
本文提出了一种处理多个任务的顺序学习方法,通过仅在相关性较高的任务之间共享信息,其基于广义绑定准则的任务顺序决策能够优化任务分类绩效并自动发现任务最佳顺序。实验结果表明,顺序学习比同时学习更加有效,任务完成顺序重要并具有指引意义。
Dec, 2014
本文提出了一种序列标注框架,采用辅助训练目标,并通过学习预测数据集中每个词周围的单词进行语言建模,以此学习通用的语义和语法组合模式,并在不需要额外标注或未标注数据的情况下,实现在多个序列标注任务上取得一致的性能提升。
Apr, 2017
本文探讨了序列到序列模型下的多任务学习问题,主要包括共享编码器和解码器的三种设置,结果表明使用少量的解析和图像标题数据训练模型可以有效地提高翻译质量并在一些测试中实现新的最优结果,并揭示了自编码器和跳越思考等两种无监督学习目标在多任务学习上的有趣属性。
Nov, 2015
通过引入多任务学习和标签相关性反馈机制来增强标签相关性学习,其中采用文档 - 标签交叉注意力机制来生成一个更具有区分度的文档表示,以及两个辅助标签共现预测任务来增强标签相关性学习,实验结果表明,我们的方法在 AAPD 和 RCV1-V2 数据集上优于竞争性基线方法。
Jun, 2021
该研究旨在开发一种无监督学习框架,能够在未标记的事件触发时间序列中学习任务感知的相似性,该框架利用多尺度自编码器和高斯混合模型有效地学习时间序列的低维表示,得到的相似度量易于解释,通过广泛的实验表明,该方法明显优于现有的方法。
Jul, 2022
本文介绍了对多任务学习的一系列评估,并且发现仅有其中 1 个语义序列标注任务受到显著的改善。同时作者还探讨了辅助任务和数据依赖条件与多任务学习效果的关系,结果发现,在取得成功时,具有紧凑和更均匀标签分布的辅助任务是更好的选择。
Dec, 2016
通过研究 11 个序列标注任务中的三种多任务学习方法,我们发现在大约 50% 的情况下,联合学习所有 11 个任务可以改善独立学习或成对学习任务的效果。我们还展示了成对多任务学习可以告诉我们哪些任务可以互惠,哪些任务在联合学习时可以受益。我们的一种多任务学习方法产生的任务嵌入还揭示了语义任务和语法任务的自然聚类。我们的研究打开了在自然语言处理中进一步利用多任务学习的大门。
Aug, 2018
本文提出了一种基于长短时记忆神经网络的序列到序列模型的方法,用于预测共同执行作业的足迹对资源的使用情况和执行时间的变化,并在高性能计算基准测试中进行了验证,表明该模型能够正确地识别以前看到和未看到的共同调度作业的资源使用趋势。
Jun, 2020
本文提出了一种多任务学习框架,利用文本数据来提高自动语音识别和语音翻译的性能,其中包括基于注意力的序列到序列建模、去噪自动编码器、机器翻译等技术。在英语语音识别任务中,该方法相对于基线线下降了 10~15% 的词错误率,在 MuST-C 任务中有 3.6~9.2 BLEU 的提高。
Oct, 2020