本论文研究了多任务学习(MTL)与基于梯度的元学习(GBML)之间的关系,通过理论和实证研究证明了它们在优化公式和学习到的预测函数上的相似性,并通过样例展示了 MTL 作为一阶方法可以代替计算代价高的二阶方法 ——GBML,在大规模数据集上训练时更加有效。
Jun, 2021
本文综述了多任务学习的算法建模、任务聚类及半监督学习、真实世界应用等方面,并探讨其理论分析和未来方向。
Jul, 2017
多任务学习通过使用共享资源同时计算多个输出,具有比传统方法更低的内存需求和推理时间,本综述主要研究多任务学习如何在不同的部分监督设置下应用以解决相关挑战。
Jul, 2023
研究多任务学习在计算机视觉中的应用,通过综述现有方法,提出几种方法处理多任务学习中的重要问题,并在各种基准测试中进行评估,进一步提升了多任务学习的状态。
Mar, 2022
本文提出了一种分布式和异步优化的多任务学习框架,该框架能够有效地解决数据存储在不同地点时的挑战,同时能够提高多任务学习模型的泛化性能。实证研究表明本文提出的方法在合成和实际数据集上均表现出高效和有效的性能。
Sep, 2016
本文提出了一种名为 EMTL 的新型多任务学习优化方法,通过正则化不同任务的相对贡献,在更新共享参数时改善了多任务学习的泛化性能,并通过扩展实验验证了该方法的稳定性和优越性。
Jun, 2023
本篇综述介绍了多任务学习在深度神经网络中的方法,重点阐述了体系结构、优化方法和任务关系学习三个方面,并提供了常见的多任务基准的总结。
Sep, 2020
本文概述了多任务学习在深度神经网络中的应用,介绍了常见的两种方法,并讨论了最新的进展,旨在帮助机器学习从业者理解多任务学习的原理并提供选择辅助任务的指南。
Jun, 2017
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
多任务学习中的优化器选择、梯度冲突、迁移性以及与单任务学习的相似性的研究
Nov, 2023