Nov, 2022

在Qualtrics压缩跨语言多任务模型

TL;DR本文利用跨语言多任务建模技术以及模型压缩和蒸馏,为经验管理的多种分类任务提供了有效的文本分析应用程序。实验表明,在 XLM-R 和 mBert 架构中,多任务建模提高了部分经验管理任务的性能,MiniLM 实现了最佳的压缩/性能平衡,实现了高达 15.61 倍的速度提升和 2.60% 的平均任务降级 (或 3.29 倍的速度提升和 1.71% 的降级),并可节省44%的硬件成本。