ChatGPT 的自我认知和政治偏见
ChatGPT(GPT-3.5)是一个大型语言模型,该研究调查了 ChatGPT 中的国籍偏见,通过分析自动生成的论述,发现其生成的文本表现出真实世界中的国籍偏见,强调了对大型语言模型中潜在偏见的进一步审查的必要性。
May, 2024
借助创新方法,本研究调查了 GPT 多语言模型中的政治偏见。通过向 GPT 提出关于美国和中国高级政治问题的相同问题,我们分析了双语回答,发现 GPT 的简体中文模型在中国的政治问题上的 “知识”(内容)和 “态度”(情感)存在显著的不一致性。简体中文 GPT 模型不仅倾向于提供亲中信息,而且对中国问题的消极情感最少,而英文 GPT 则对中国表现出了更高的消极情感。这种差异可能源于中国的官方审查和中美地缘政治紧张关系,这两个因素影响了 GPT 双语模型的训练语料库。此外,中英文模型在处理表达语言所代表的问题时,相对于 “他们” 的问题,对 “自己” 的问题更不批判。这表明 GPT 多语言模型可能会根据其训练语言形成 “政治身份” 和相关的情感偏见。本研究讨论了我们发现对于信息传播和交流在一个日益分裂的世界中的影响。
Dec, 2023
对 ChatGPT 进行了心理特征和文化价值的测量,发现其与真实人类存在差异,表现出文化偏见和刻板印象。未来的研究应加强技术监督和算法训练的透明性,促进跨文化交流和减少社会差异。
May, 2024
通过对捷克民众自我评估数据的分析,本研究探讨了一个通用聊天机器人 ChatGPT 在从短文本中有效推测个性特质方面的能力,结果显示其在人格特质推测方面与人类评估者具有竞争力,并揭示了 ChatGPT 在所有人格维度上存在的 ' 积极偏差 ',同时探讨了提示内容对其准确度的影响,从而对人格评估中人工智能的潜力和局限性进行了重要贡献。本研究强调了负责任的人工智能发展的重要性,并考虑了隐私、同意、自主权和人工智能应用中的偏见等伦理问题。
Dec, 2023
通过使用 100,000 个瑞士国会候选人的评论,将大型语言模型与不同政治观点对齐,从而克服 ChatGPT 等商业模型的政治偏见,并提出了使用这种模型生成多个观点的平衡概述的方法。
Jun, 2024
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
利用大型语言模型(LLMs)如 ChatGPT 从用户的数字足迹中推断个体的心理特征,研究发现 GPT-3.5 和 GPT-4 可以在零样本学习情景下从用户的 Facebook 状态更新中推导出五大人格特征,但结果显示推断得分与自我报告的特征分数之间的平均相关性为 r = .29(范围 =[.22, .33]),并且推断的人格特征存在性别和年龄方面的偏差。
Sep, 2023