May, 2024

个性化多议题协商游戏中的语言模型

TL;DR利用大型语言模型(LLMs),AI 代理已经能够完成许多人类任务。使用最经典的大五人格定义,我们衡量 LLMs 在博弈论框架内进行协商的能力,以及衡量公平与风险概念的方法论挑战。模拟结果(n=1,500)显示基于不对称议题价值的领域复杂性增加会提高协议达成率,但降低了激进协商的剩余价值。通过梯度提升回归和 Shapley 解释器,我们发现高度的开放性、责任心和神经质与公平倾向有关;低和谐性和低开放性与理性倾向有关。低责任心与高毒性有关。这些结果表明 LLMs 可能具有默认公平行为的内置防护措施,但可以被 “越狱” 以利用同意的对手。我们还提供了关于如何设计谈判机器人的实用见解,并提供了一种基于博弈论和计算社会科学评估谈判行为的框架。