Jul, 2020
深度多任务学习和辅助任务学习简述
A Brief Review of Deep Multi-task Learning and Auxiliary Task Learning
Partoo Vafaeikia, Khashayar Namdar, Farzad Khalvati
TL;DR本文采用深度多任务学习方法,探究如何选择有用的辅助任务来提高模型性能和泛化能力。
Abstract
multi-task learning (MTL) optimizes several learning tasks simultaneously and
leverages their shared information to improve generalization and the prediction
of the model for each task. →
发现论文,激发创造
深度神经网络中的多任务学习概述
本文概述了多任务学习在深度神经网络中的应用,介绍了常见的两种方法,并讨论了最新的进展,旨在帮助机器学习从业者理解多任务学习的原理并提供选择辅助任务的指南。
Jun, 2017
利用辅助大任务学习具有不一致标签的多项任务
该研究提出了一种框架,通过联合利用来自具有足够多类别的大型辅助任务和这些任务之间共享的信息,来学习在训练样本有限、标签集仅部分重叠或甚至没有的多任务。其关键思想是利用可用的标签信息,自适应地修剪辅助网络的隐藏层神经元,构建每个任务的相应网络,并伴随着个别任务的联合学习。实验结果表明,该方法比最先进的方法更加有效。
Jan, 2022
异步多任务学习
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
密集预测任务的多任务学习:综述
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
跨越多任务学习和元学习:迈向高效训练和有效适应
本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021