Apr, 2025
统一多任务学习与模型融合用于高效语言模型的守护
Unified Multi-Task Learning & Model Fusion for Efficient Language Model
Guardrailing
TL;DR本研究针对当前大型语言模型在守护不当行为时所面临的延迟和成本问题,提出了一种任务特定数据生成的方法,能够生成性能优越且体积更小的分类器。通过使用单一模型\texttt{MultiTaskGuard}和提出的基于搜索的模型融合方法,我们的研究显示,所提模型\texttt{UniGuard}在多个公开数据集上的F1分数平均提高了29.92点,显著超越现有最佳技术水平。