Dec, 2023

红色人工智能?GPT3.5 模型对美中政治问题的不一致回应

TL;DR借助创新方法,本研究调查了 GPT 多语言模型中的政治偏见。通过向 GPT 提出关于美国和中国高级政治问题的相同问题,我们分析了双语回答,发现 GPT 的简体中文模型在中国的政治问题上的 “知识”(内容)和 “态度”(情感)存在显著的不一致性。简体中文 GPT 模型不仅倾向于提供亲中信息,而且对中国问题的消极情感最少,而英文 GPT 则对中国表现出了更高的消极情感。这种差异可能源于中国的官方审查和中美地缘政治紧张关系,这两个因素影响了 GPT 双语模型的训练语料库。此外,中英文模型在处理表达语言所代表的问题时,相对于 “他们” 的问题,对 “自己” 的问题更不批判。这表明 GPT 多语言模型可能会根据其训练语言形成 “政治身份” 和相关的情感偏见。本研究讨论了我们发现对于信息传播和交流在一个日益分裂的世界中的影响。