共享内存的深度多任务学习
本文提出了基于多任务学习框架的神经网络方法,采用循环神经网络来建模具有特定任务和共享层的文本,并在四个基准文本分类任务的实验中显示出该方法可以提高其他相关任务的性能。
May, 2016
本文提出了一种自适应共享方法 AdaShare,通过任务特定的策略选择性地决定跨哪些任务共享众多的深度神经网络层,从而实现最佳识别准确度和资源效率。实验表明,该方法针对具有多个任务的不同基准数据集具有优异的效果。
Nov, 2019
本文提出了一个基于对抗学习的多任务学习框架,在 16 个文本分类任务上的实验结果表明了该方法的优势,并证明了模型学习到的共享知识可以作为现成的知识轻松迁移到新的任务中。
Apr, 2017
本文提出了一种基于潜在多任务体系结构的方法,该方法可以在 OntoNotes 5.0 的人造数据和数据中的多种领域和四种不同的任务中,比以往任何一种学习潜在体系结构的多任务问题方法都表现得更优秀,可以实现高达 15% 的平均误差降低率。
May, 2017
通过共享相关任务的特征和归纳迁移学习,我们试图增强多任务模型的特征映射,并学习各种任务之间的任务关系,以获取更好的多任务学习效益。本章旨在可视化现有的多任务模型,比较它们的性能、评估多任务模型性能的方法,并讨论在各个领域设计和实现这些模型时遇到的问题以及它们取得的优势和里程碑。
Sep, 2022
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
本研究提出一种多任务学习模型,可以同时训练多种语言学层次的任务,并通过一种逐步增加深度的策略来解决越来越复杂的任务。该模型使用一个简单的正则化项来实现在提高某一任务的损失函数时,不影响其他任务的学习效果。实验结果表明,这个端到端的模型在标签、句法分析、相关性与蕴含等五种任务上取得了最先进或有竞争力的结果。
Nov, 2016