提出了一种基于图神经网络模型的最新、高效的多任务预测方法,结果表明,多任务学习可以提高模型性能,特别是数据点较少的数据集可以不需要数据增强,便能获得较好的效果,并且能显著减小模型的方差。
Oct, 2019
通过元学习技术,在跨数据集的情况下,训练大规模的大脑连通性图谱数据集,提出了基于元学习的数据高效训练策略,并通过图神经网络框架,包括变换式的跨数据集任务权重自适应等,得到了更高效和更稳定的性能,为了更好地研究疾病间和数据集间的相似性,提出了新的见解。
Jun, 2022
本文提出了两种基于神经序列模型的多任务学习架构,采用 message-passing graph 神经网络的思想,构建了通信的图多任务学习框架,并在文本分类和序列标注任务上进行了大量实验,证明了其在多任务学习和迁移学习上的有效性和可解释性。
Nov, 2018
本研究提出了两种深度神经网络结构, 加入外部记忆共享于多个任务中训练,实验表明该结构帮助相关任务,提高文本分类任务效果。
Sep, 2016
本文提出了一种深度多模态神经网络架构搜索(MMnas)框架, 通过使用基于梯度的 NAS 算法,可以高效地学习不同任务的最佳架构,并设计了一个统一的编码器 - 解码器骨干网络,其中每个编码器或解码器块对应于从预定义的操作池中搜索出来的操作,以及面向不同多模态学习任务的特定头部。实验结果表明,MMnasNet 在三个多模态学习任务上显着优于现有的最先进方法,包括视觉问答、图像文本匹配和视觉定位。
Apr, 2020
本文提出一个多任务学习框架,利用限制 DAG-based 中央网络和特征共享来构建适应性强的结构,并使用流量约束和挤压损失将网络压缩离散化,从而实现在多个公共 MTL 数据集上达到最先进的性能。
Mar, 2023
通过进化优化,结合自定义路由和共享模块,提高了 Omniglot 的多任务、多字符识别的表现,为深度神经网络和复杂系统设计提供了重要思路。
Mar, 2018
通过引入四种递归神经层实现多任务结构信息融合,对多个相关任务间的复杂互动进行建模,从而在文本分类任务中显著提升相关任务的性能。
Jul, 2017
本文是多任务学习的一篇综述,主要介绍了在分布式数据和网络系统上学习多个相关任务的新策略以及合作规则如何促进不同任务相关性模型,同时也解释了如何和何时合作的方式比非合作的策略更有效。
Jan, 2020
本文提出了基于多任务学习框架的神经网络方法,采用循环神经网络来建模具有特定任务和共享层的文本,并在四个基准文本分类任务的实验中显示出该方法可以提高其他相关任务的性能。
May, 2016