本文概述了多任务学习在深度神经网络中的应用,介绍了常见的两种方法,并讨论了最新的进展,旨在帮助机器学习从业者理解多任务学习的原理并提供选择辅助任务的指南。
Jun, 2017
本文综述了多任务学习的算法建模、任务聚类及半监督学习、真实世界应用等方面,并探讨其理论分析和未来方向。
Jul, 2017
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
本文综述了多任务学习在自然语言处理领域的应用。在介绍多任务学习的架构和优化方法后,着重讨论了在多个自然语言处理任务上的表现,最后探讨了相关研究方向。
Sep, 2021
研究多任务学习在计算机视觉中的应用,通过综述现有方法,提出几种方法处理多任务学习中的重要问题,并在各种基准测试中进行评估,进一步提升了多任务学习的状态。
Mar, 2022
本文采用深度多任务学习方法,探究如何选择有用的辅助任务来提高模型性能和泛化能力。
Jul, 2020
本文提出了一种基于潜在多任务体系结构的方法,该方法可以在 OntoNotes 5.0 的人造数据和数据中的多种领域和四种不同的任务中,比以往任何一种学习潜在体系结构的多任务问题方法都表现得更优秀,可以实现高达 15% 的平均误差降低率。
May, 2017
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
本文阐述了多任务深度神经网络在 NLP 领域中的应用和优势,并探究了其在不同任务相关性下提高 NLP 性能的条件和作用。
Feb, 2017