利用表示相似性引导的多任务特征共享来抑制任务干扰
多任务学习中,通过使用多个专家网络对特征进行解耦,动态解码任务特定特征,并利用多任务特征内存实现长期建模,从而提高视觉场景理解任务的性能。
Jul, 2023
本文提出了一种基于特征对比一致性的多任务对比正则化方法,以解决多任务密集预测的跨任务交互建模问题,并在两个数据集上进行了大量实验,展示了该方法在密集预测方面的优越表现,创立了新的最先进性能。
Jul, 2023
通过学习综合的中间特征,将任务通用特征和任务特定特征相结合,提出了一种新的桥特征中心交互方法,通过桥特征生成器生成强桥特征,利用任务模式传播确保高质量的任务交互参与者,再利用任务特征细化器从桥特征中提炼知识来改进最终的任务预测结果。在实验中,通过在 NYUD-v2 和 PASCAL Context 基准数据集上进行大量实验,表明所提出的架构在同时推动不同的密集预测任务方面具有效力和能力。
Dec, 2023
我们提出了一种多任务模型,使得用户可以在部署后调整所需的计算预算和任务性能的相对重要性,无需重新训练。这使得能够为动态变化的用户需求优化性能,而无需为各种情况训练和保存模型造成沉重的计算开销。
Aug, 2023
本文介绍了一种单任务学习的方法 -- 伪任务增强,通过在同一宇宙中绘制类似任务来训练多个解码器,以提高单任务学习性能,同时与多任务学习相结合,这种方法显示出对深度学习系统的广泛适用性和高效性。
Mar, 2018
本文提出了一种名为 “Multi-Query Transformer” 的多任务模型,利用多个任务相关的查询来进行跨任务推理,通过查询在多个任务之间建立联系,使得跨任务交互变得简单高效,并在两个密集预测数据集(NYUD-v2 和 PASCAL-Context)上取得了最优效果。
May, 2022
本研究提出了一种名为 InterroGate 的新型多任务学习架构,用于减轻任务干扰并优化推理计算效率。通过可学习的门控机制自动平衡共享和任务特定的表示,同时保持所有任务的性能。在广泛的实证评估中,我们使用卷积和基于 transformer 的骨干网络,在 CelebA、NYUD-v2 和 PASCAL-Context 上展示了最先进的多任务学习结果。
Feb, 2024
本研究探讨了将中间表示作为深度网络低层的辅助监督的方法,将传统的 pipeline 方法与端到端的训练方法相结合,实验结果表明这种方法提高了对话语音识别的识别准确性。
Apr, 2017
本文探讨了用于神经语音翻译的多任务模型,并对其进行增强,以反映两个直观概念。精准的中间表示和神经关联的模式,参与模型的训练可以提高低资源语音转录和翻译任务的性能。
Feb, 2018