Nov, 2024
R-MTLLMF: 无线边缘的弹性多任务大型语言模型融合
R-MTLLMF: Resilient Multi-Task Large Language Model Fusion at the
Wireless Edge
TL;DR本研究针对无线边缘用户在应对多任务大型语言模型(MTLLMs)训练和融合时的复杂性问题进行探讨。提出了一种新的弹性多任务大型语言模型融合方法(R-MTLLMF),通过重组MTLLM来应对对抗噪声,以支持任务向量的有效聚合。实验证明,该方法在理想噪声情况下表现接近基线性能,在最坏情况下显著优于未保护模型融合,表明增强的物理层保护对整体韧性至关重要。