Apr, 2024

多任务学习中使用反馈机制建模输出层任务相关性

TL;DR多任务学习通过在不同层次共享信息来同时学习多个任务,提高各个单独任务的性能。该研究探索了输出层面任务相关性,并通过将一个任务的输出作为另一个任务的隐藏特征引入后验信息,将静态多任务学习模型转变为动态模型。通过引入收敛性损失来确保训练过程的收敛,并提出了 Gumbel 门控机制来确定反馈信号的最佳投影。通过在口语理解的几个基线模型上进行实验证实了我们方法的有效性和性能评估。