Nov, 2024
SMoA:通过稀疏混合代理改进多代理大语言模型
SMoA: Improving Multi-agent Large Language Models with Sparse
Mixture-of-Agents
TL;DR本文针对多代理系统在大语言模型(LLMs)中面临的效率和多样性问题,提出了一种稀疏混合代理(SMoA)框架。该框架通过引入响应选择和提前停止机制,优化了代理间的信息流动,从而在性能与效率之间取得平衡。研究结果表明,SMoA在较低的计算成本下,能够实现与传统混合代理方法相媲美的性能,同时具备更高的稳定性和可扩展性。