名词组合词解释的转移和多任务学习
本文提出了一种基于多任务框架和序列到序列模型的语义解析方法,旨在解决语料数据不足限制,较少标注数据任务可以通过从大量标注数据任务中传递学习的方式得到提升,实验结果在自己的数据集中获得了 1.0% 到 4.4% 的准确度提升,在 ATIS 语义解析任务中,准确度提升了 2.5% 到 7.0%。
Jun, 2017
本研究探索使用多任务学习的效果,其中将语义标注作为三种不同自然语言处理任务(词性标注,通用依赖解析和自然语言推理)的辅助任务。相比于全神经网络共享和部分神经网络共享,我们发现 “学习共享什么” 的环境中表现良好,特别是在所有任务中表现出一致的增益。
Aug, 2018
本研究提出一种多任务学习模型,可以同时训练多种语言学层次的任务,并通过一种逐步增加深度的策略来解决越来越复杂的任务。该模型使用一个简单的正则化项来实现在提高某一任务的损失函数时,不影响其他任务的学习效果。实验结果表明,这个端到端的模型在标签、句法分析、相关性与蕴含等五种任务上取得了最先进或有竞争力的结果。
Nov, 2016
本文分析了多任务学习的信息传递动态,并开发了可量化任务间信息转移的相似度度量方法,从而使得我们在宏观和微观层面上提出了两种方法来优化多任务学习性能,这些方法在三个监督式多任务学习基准和一个多任务强化学习范式上都有显著改进。
Oct, 2020
通过实验发现,来自不同词汇语义家族的预训练语言模型如何利用辩论磋商单元任务的性能,实验结果表明,传递学习技术对任务有益,但当前方法可能不足以利用不同词汇语义家族的常识知识。
Sep, 2022
本文旨在探究将自然语言处理大规模语言模型 fine-tuning 应用于其他任务是否有效,通过在三大问题领域(文本分类、问题回答、序列标注)的 33 个 NLP 任务上的数据验证,结果显示 transfer learning 在数据稀缺情况下更为有效,在源任务数据较少或与目标任务差异较大的情况下仍能提高性能,同时提出了可以预测给定目标任务最具可转移性源任务的任务嵌入,并验证其在数据大小、源和目标之间的有效性。最终的结果显示源数据大小、任务和领域的相似性和任务的复杂性在决定转移性方面起着关键作用。
May, 2020
本文研究了多任务学习的方法,使用共享特征表示所有任务,并研究了线性和 ReLU 激活模型的理论。通过实验证明了任务数据的对齐有助于多任务训练和转移学习,特别地,我们的对齐方法比 BERT-LARGE 在 5 个 GLUE 任务上平均提高了 2.35%的得分,并设计了基于 SVD 的任务重新加权方案来提高多任务训练在多标签图像数据集上的鲁棒性。
May, 2020
本文探讨了用于神经语音翻译的多任务模型,并对其进行增强,以反映两个直观概念。精准的中间表示和神经关联的模式,参与模型的训练可以提高低资源语音转录和翻译任务的性能。
Feb, 2018
本文提出一种方案,使用几个样本训练的神经网络和多语言 Transformer 基础模型之间协同作用的跨语言转移,以改进跨语言学习的性能,实验结果表明,我们的方法能够显著提高跨低资源语言与高资源语言之间的转移学习性能,进一步的结果证明了 meta-learning 的能力。
Jul, 2022
本研究探讨了改进多任务训练以及在强化学习环境中的传递的潜力,提出了一种参数组合的方法来处理这一挑战,并通过在不同的操作任务上进行传递实验以证明其有效性。
Jun, 2023