Apr, 2024

有效多模型融合与对抗互补表示学习

TL;DR通过对单模型系统和多模型融合的研究,我们提出了一个基于对抗性互补表示学习框架,该框架使新训练的模型能够避免先前获取的知识,使每个单独的组成模型能够学习最大程度不同、互补的表示方法,并通过实验结果证明我们的方法相比传统的多模型融合能更有效地提高性能。此外,归因分析验证了在 ACoRL 下训练的模型获取了更多的互补知识,突显了我们的方法在提高效率和鲁棒性方面的有效性。