May, 2025
大型语言模型往往政治极端、意识形态不一致,即使在信息性环境中也具说服力
Large Language Models are often politically extreme, usually
ideologically inconsistent, and persuasive even in informational contexts
TL;DR本研究探讨了大型语言模型(LLMs)所存在的政治偏见,指出虽然普遍认为它们的偏见较小,但实际上是由于对特定议题极端观点的抵消所致。通过实验,我们发现LLMs在信息寻求环境中也能够导致政治上的说服性影响,使得与聊天机器人讨论政治问题的选民更可能表达与聊天机器人一致的偏好。这意味着LLMs可能成为一种强大的政治影响工具,尤其是由私企或政府控制的模型。