Sep, 2021
自然语言处理中的多任务学习:概述
Multi-Task Learning in Natural Language Processing: An Overview
Shijie Chen, Yu Zhang, Qiang Yang
TL;DR本文综述了多任务学习在自然语言处理领域的应用。在介绍多任务学习的架构和优化方法后,着重讨论了在多个自然语言处理任务上的表现,最后探讨了相关研究方向。
Abstract
deep learning approaches have achieved great success in the field of Natural
Language Processing (NLP). However, deep neural models often suffer from
overfitting and →
发现论文,激发创造
深度神经网络中的多任务学习概述
本文概述了多任务学习在深度神经网络中的应用,介绍了常见的两种方法,并讨论了最新的进展,旨在帮助机器学习从业者理解多任务学习的原理并提供选择辅助任务的指南。
Jun, 2017
2020 年代自然语言处理的多任务学习:我们将走向何方?
本文主要综述了自然语言处理领域中最近的多任务学习 (MTL) 的研究进展,重点关注深度学习、迁移学习和预训练等相关方向的最新成果及所面临的挑战。
Jul, 2020
自然语言处理中的多任务学习调查:关于任务相关性和训练方法
本文对近期自然语言处理领域中的多任务学习方法进行了调查,总结了两种基于任务相关性的多任务训练方法:联合训练和多步训练。文章对自然语言处理领域中几个下游应用案例进行了说明,总结了任务关系,并讨论了未来的研究方向。
Apr, 2022
自然语言处理中使用基于 Transformer 的多任务学习的挑战与机遇:一项调研
机器学习模型处理自然语言处理(NLP)中的多任务学习(MTL)及持续学习(CL)的挑战、机会和应用,以及对基于 Transformer 的 MTL 架构的系统分析。
Aug, 2023
潜在多任务架构学习
本文提出了一种基于潜在多任务体系结构的方法,该方法可以在 OntoNotes 5.0 的人造数据和数据中的多种领域和四种不同的任务中,比以往任何一种学习潜在体系结构的多任务问题方法都表现得更优秀,可以实现高达 15% 的平均误差降低率。
May, 2017