超越共享层次结构:通过软层排序实现深度多任务学习
本文提出了一种新的深度多任务表示学习框架,通过将矩阵分解技术泛化为张量分解,实现了深度网络中的端到端知识共享的自动学习,而不需要用户定义的多任务共享策略。实验证明了我们的深度多任务表示学习方法在提高准确性和减少设计选择方面的有效性。
May, 2016
本文概述了多任务学习在深度神经网络中的应用,介绍了常见的两种方法,并讨论了最新的进展,旨在帮助机器学习从业者理解多任务学习的原理并提供选择辅助任务的指南。
Jun, 2017
本文综述了当前深度学习在计算机视觉中的多任务学习领域的最新研究进展,主要关注密集预测任务,从网络架构和优化方法两个角度进行了阐述和总结,旨在探讨多任务共享表示学习的优势和局限性。
Apr, 2020
本文提出了一种名为OMPN的有序记忆策略网络,用于通过学习人类演示中的层次结构发现子任务层次结构,进而通过任务分解恢复无结构演示中的子任务边界。实验证明,在无监督和弱监督设置下,OMPN模型可以比强基线模型更好地实现任务分解。而且,OMPN模型也可以直接应用于部分可观察的环境,仍然可以实现更高的任务分解性能。
Mar, 2021
本文研究了多任务优化算法和权重平均法在语言和视觉任务中的性能对比,发现在复杂性和算力开销上,多任务优化算法并没有显著优势,并提出可行的替代方法和训练注意事项。同时,该研究还讨论了评估多任务优化算法性能的挑战和潜在解决方案。
Sep, 2022
本研究提出一种新方法来进行多任务学习中的任务分组,弥补了现有方法的关键理论和实践限制。与以前的研究不同,我们的方法提供了一个更具理论基础的方法,不依赖于构建转移增益的限制性假设。同时,我们还提出了一种灵活的数学规划方法,可以适应广泛的资源约束,从而增强了其多样性。在计算机视觉数据集、组合优化基准和时间序列任务等多个领域的实验结果表明,我们的方法优于广泛的基线方法,验证了其在多任务学习中的有效性和普适性。
Feb, 2024
多任务学习(MTL)是一个灵活且有效的学习范式,结合了任务特定的和共享的信息,同时解决了多个相关任务。本综述以技术层面从传统方法到深度学习和最新的预训练基于模型的最新趋势,对MTL的发展进行了全面概述,并将MTL技术系统地分类为正则化、关系学习、特征传播、优化和预训练五个关键领域。综述还揭示了MTL从处理一组固定任务发展为接受无任务或模态限制的更灵活方法,探讨了任务提示和不可知训练以及ZSL的概念,释放了这种历史上备受追捧的学习范式的潜力。综述旨在提供研究界对MTL从1997年到2023年的最新进展的全面概述,同时探讨当前挑战和未来可能性,为MTL研究的机遇和潜在路径指明方向。
Apr, 2024