Sep, 2024

移动边缘计算中稳定的LLM训练资源分配

TL;DR本研究解决了在移动边缘计算中高效训练大型语言模型(LLMs)所面临的资源分配与数据隐私问题。我们提出了一种协作训练框架,结合移动用户与边缘服务器的资源,以提高性能和效率,通过多目标优化方法降低能耗和延迟,同时增强模型的稳定性。模拟结果表明,该方法在多种移动环境中有效减少能耗和延迟,提高了LLM的可靠性。