多任务的专注单任务处理
该研究介绍了一种多任务学习架构,通过相关性引导的注意力和自我关注增强平均表示学习,以通过 2D 语义分割和几何相关的任务来综合理解复杂场景,并在室内和室外数据集上展示了其好处。
Jun, 2022
本文提出了一个基于对抗学习的多任务学习框架,在 16 个文本分类任务上的实验结果表明了该方法的优势,并证明了模型学习到的共享知识可以作为现成的知识轻松迁移到新的任务中。
Apr, 2017
本文提出了一种可控的多任务网络,该网络根据用户所需的任务偏好和资源限制以动态方式调整其架构和权重,并通过利用任务亲和性和一种新的分支规则化损失来训练两个超级网络以预测适应权重的树状模型。
Mar, 2022
通过自然的相关任务分组,结合多任务学习方法,将监督信息编码到模型中,探索并实现了两种神经网络结构,分别在不同层级学习不同的特征空间,并在自然语言理解中取得了显著的性能提升。
Jul, 2019
深度网络在计算机视觉方面的准确性很高,但仍然容易受到对抗性攻击。本文理论和实验分析表明,训练模型的对抗鲁棒性与其训练任务的数量有关,多任务训练可以提高模型对单个任务的对抗攻击鲁棒性。尽管对抗防御仍是一个挑战,但本研究表明深度网络之所以容易受攻击,部分原因是它们只是在少数任务上进行了训练。
Jul, 2020
本文提出了一种以紧凑的多任务深度学习架构为设计目标的方法,使用一种推动类似任务聚集的新标准在训练期间贪心地扩大网络,以优化多任务学习的泛化性能并在人员属性分类任务中取得最先进的精度。
Nov, 2016
该研究论文调查了针对多任务分类器中隐藏任务的攻击的可行性,提出了一种新颖的敌对攻击方法,利用非目标任务的知识和多任务模型的共享主干网络迫使模型遗忘与目标任务相关的知识,实验证明了该方法在削弱隐藏任务的准确性方面的有效性,并且保留了可见任务的性能,有助于了解多任务分类器中的敌对性漏洞。
May, 2024
本文提出了一种基于注意力机制的多任务深度强化学习方法,该方法可以自动将任务知识分组,并在可能的情况下实现积极的知识转移,避免任务干扰,并表现出可比较或优越的性能。
Jul, 2019