通过引入四种递归神经层实现多任务结构信息融合,对多个相关任务间的复杂互动进行建模,从而在文本分类任务中显著提升相关任务的性能。
Jul, 2017
本研究提出了两种深度神经网络结构, 加入外部记忆共享于多个任务中训练,实验表明该结构帮助相关任务,提高文本分类任务效果。
Sep, 2016
本文提出了一个基于对抗学习的多任务学习框架,在 16 个文本分类任务上的实验结果表明了该方法的优势,并证明了模型学习到的共享知识可以作为现成的知识轻松迁移到新的任务中。
Apr, 2017
该研究提出了一种基于递归神经网络的多任务学习方法,能够有效地处理与情感分析相关的多个分类任务,并在优化细粒度情感分类问题中实现了领先的结果。
采用多任务学习方法解决实体和关系联合提取问题,提出了一种称为循环交互网络的多任务学习模型,能够动态地学习交互来有效地模拟分类的任务特征,并在两个真实数据集上进行实证研究验证了该模型的优越性。
May, 2020
本文提出了两种基于神经序列模型的多任务学习架构,采用 message-passing graph 神经网络的思想,构建了通信的图多任务学习框架,并在文本分类和序列标注任务上进行了大量实验,证明了其在多任务学习和迁移学习上的有效性和可解释性。
Nov, 2018
本研究提出一种多任务学习模型,可以同时训练多种语言学层次的任务,并通过一种逐步增加深度的策略来解决越来越复杂的任务。该模型使用一个简单的正则化项来实现在提高某一任务的损失函数时,不影响其他任务的学习效果。实验结果表明,这个端到端的模型在标签、句法分析、相关性与蕴含等五种任务上取得了最先进或有竞争力的结果。
Nov, 2016
本文提出了一种基于深度神经网络的序列标注方法,其包含多语言、多任务学习和交叉语言联合训练,并在包括词性标注、分块和命名实体识别等多个任务中取得了最优性能。
Mar, 2016
使用多任务学习方法,缩短新任务学习所需的数据量,以提高自然语言理解中的 slot 填充模型适配多目标任务或领域的效率。该多任务模型可以利用在其他任务中学习到的模式,以较少的数据获得更好的性能,并支持开放词汇,可以很好地应用于微小数据量的训练。实验结果显示了该方法在四个不同领域中的适配效果和开放词汇技术的有效应用。
Apr, 2016
本文介绍了一种基于深度递归神经网络的内容推荐方法,通过将文本序列映射至潜在向量实现推荐,在科学论文推荐任务中,该方法精度显著优于传统基于主题模型或词向量平均值的推荐方法。此外,使用多任务学习进一步提高了推荐精度。