跨多种拓扑结构搜索的多任务学习动态神经网络
本文提出了一种基于潜在多任务体系结构的方法,该方法可以在 OntoNotes 5.0 的人造数据和数据中的多种领域和四种不同的任务中,比以往任何一种学习潜在体系结构的多任务问题方法都表现得更优秀,可以实现高达 15% 的平均误差降低率。
May, 2017
本文提出了将神经架构搜索(NAS)应用于通用多任务学习(GP-MTL)中的方法。我们将 GP-MTL 网络分解成单任务骨干和层级分层特征共享 / 融合,设计了一个新颖的通用任务无关搜索空间,并提出了一种新颖的单次梯度基于搜索算法。通过对体系结构权重进行最小熵正则化,使体系结构权重收敛到近离散值,从而实现单个模型,达到可直接用于评估且不必从头开始培训。
Mar, 2020
本文提出了一种基于不可微神经网络结构搜索的有原则方法,用于自动定义多任务神经网络编码阶段的分支结构。该方法通过引入资源感知损失来使模型尺寸动态地可控,最终在有限资源预算内找到高性能分支结构。
Aug, 2020
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
本文提出了一种新的深度学习模型 Task Adaptive Activation Network (TAAN), 它可以自动学习适用于多任务学习的最佳网络架构,通过两种功能规范化方法,证明了 TAAN 和规范化方法的性能提高。
Nov, 2019
本文提出了两种基于神经序列模型的多任务学习架构,采用 message-passing graph 神经网络的思想,构建了通信的图多任务学习框架,并在文本分类和序列标注任务上进行了大量实验,证明了其在多任务学习和迁移学习上的有效性和可解释性。
Nov, 2018
该论文提出了一种名为 EDNAS 的新型架构,通过多任务学习(MTL)和硬件感知神经架构搜索(NAS)的联合学习,成功地提高了边缘平台上稠密预测的准确性,并通过提出 JAReD 方法降低了输出噪声,并揭示了最佳架构。
Oct, 2022
本文提出了一种深度多模态神经网络架构搜索(MMnas)框架, 通过使用基于梯度的 NAS 算法,可以高效地学习不同任务的最佳架构,并设计了一个统一的编码器 - 解码器骨干网络,其中每个编码器或解码器块对应于从预定义的操作池中搜索出来的操作,以及面向不同多模态学习任务的特定头部。实验结果表明,MMnasNet 在三个多模态学习任务上显着优于现有的最先进方法,包括视觉问答、图像文本匹配和视觉定位。
Apr, 2020
本文提出了一种可控的多任务网络,该网络根据用户所需的任务偏好和资源限制以动态方式调整其架构和权重,并通过利用任务亲和性和一种新的分支规则化损失来训练两个超级网络以预测适应权重的树状模型。
Mar, 2022