Jun, 2024

关于大型语言模型中多智能体系统中观点动态的原则

TL;DR我们研究互动的大型语言模型(LLMs)群体内舆论的演变。我们发现这些模型的交流受到几个倾向性因素的影响,分别是追求其他模型意见的共识、在资金配置时展现谨慎和考虑伦理问题。我们还发现这些偏见受到意见改变缺乏具有说服力的理由、愿意参与讨论的程度以及资源分配的分布的影响。此外,这些偏见之间的紧张关系可能导致对具有负面含义的项目的资金支持继续存在。通过自由形成意见与从三个资源分配选项中选择意见相比,我们发现在互动后,LLM 的意见分布更加多样化,而在后一种情况下,通常会达成共识或极化。当代理人了解过去的意见时,他们会努力保持一致,并产生更多样的更新规则。我们使用 Llama 3 LLM 进行了研究。