Apr, 2025

大型语言模型是否信任人工智能监管?博弈论大型语言模型代理的出现行为

TL;DR本研究解决了在人工智能开发生态系统中促进信任与合作的需求。通过将大型语言模型(LLM)代理嵌入进演化博弈论框架,揭示了AI开发者、监管者与用户之间的复杂互动及其在不同监管情境下的战略选择。研究发现,LLM代理在信任不到位时倾向于采取更“悲观”的立场,这一发现为AI监管系统提供了重要的指导,预测了战略LLM代理在法规中的应用效果。