Jul, 2024

大型语言模型能够模仿政治家和其他公众人物

TL;DR现代人工智能技术,如大型语言模型(LLMs),有可能污染公共信息领域,对社会的凝聚力构成重大威胁。研究表明,LLMs能够生成出具有令人印象深刻的文本质量,包括具有说服力的政治演讲、预先定义风格的文本和角色特定内容。然而,现有文献在一个关键领域存在差距:我们缺乏关于LLMs在冒充政治和社会代表方面的潜力以及公众对这些冒充的真实性、相关性和连贯性的判断的大规模和系统研究。我们提供了一项基于英国社会的横断面研究结果,结果显示LLMs能够对英国广播政治辩论节目中的辩论问题生成回应。冒充的回应被认为比被冒充的人原先的回应更具真实性和相关性。从这两点可以得出结论:(1)LLMs可以有意义地参与公共政治辩论,(2)迫切需要让公众了解这对社会可能造成的潜在危害。