评估机器对土著身份的感知能力:ChatGPT 在多样情境中土著角色的分析
这项研究通过从 GLOBE 项目获取的价值问题激发 ChatGPT(OpenAI)和 Bard(Google)来探讨了大型语言模型的文化自我认知,结果显示它们与英语国家和经济竞争力强的国家的价值观最为相似。认识到大型语言模型的文化偏见并理解它们的工作方式对社会中的所有人都非常重要,因为我们不希望人工智能的黑盒子延续偏见,使人类在无意中创造和训练更加带有偏见的算法。
Dec, 2023
ChatGPT(GPT-3.5)是一个大型语言模型,该研究调查了 ChatGPT 中的国籍偏见,通过分析自动生成的论述,发现其生成的文本表现出真实世界中的国籍偏见,强调了对大型语言模型中潜在偏见的进一步审查的必要性。
May, 2024
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
当 ChatGPT 具有特定的社会身份时,它能够区分内外群体,拥抱内群体价值观而回避外群体价值观,表现出对外群体的负面态度,该研究在多种语言环境以及在政治领域得到了复制和确认,并提供了减轻此类偏见的关键见解。
Feb, 2024
这篇论文通过对社交媒体讨论进行内容分析,调查了不同文化背景下训练的大型语言模型(LLM),如 ChatGPT 和 Ernie,对性别偏见的公众看法。研究发现,ChatGPT 在隐性性别偏见方面更常见,例如将男性和女性与不同的职业头衔联系在一起,而 Ernie 的回应中则存在明显的性别偏见,比如过分强调女性追求婚姻而非事业。根据研究结果,我们反思了文化对性别偏见的影响,并提出了规范 LLM 性别偏见的治理建议。
Sep, 2023
利用大型语言模型(LLMs)如 ChatGPT 从用户的数字足迹中推断个体的心理特征,研究发现 GPT-3.5 和 GPT-4 可以在零样本学习情景下从用户的 Facebook 状态更新中推导出五大人格特征,但结果显示推断得分与自我报告的特征分数之间的平均相关性为 r = .29(范围 =[.22, .33]),并且推断的人格特征存在性别和年龄方面的偏差。
Sep, 2023
GPT 软意识使人工智能能够理解预期的意识形态,并生成用于注入大型语言模型意识形态的微调数据,相比传统的政府意识形态操控技术,如信息审查,LLM 意识形态化具有易实施、低成本和高效的优势,但也存在潜在风险。
Sep, 2023
对 ChatGPT 和其他生成人工智能模型(GAI)存在的潜在偏见在高等教育机构(HEIs)中的应用进行了伦理问题的讨论和相关研究的范围审查,结果表明,虽然存在对大型语言模型(LLMs)和 GAI 的潜在偏见的意识,但多数文章只在表面上接触到 “偏见” 问题,很少有人明确指出在什么情况下会发生何种偏见,并且也未对其对高等教育、教职员工或学生可能产生的影响进行讨论。因此,我们呼吁高等教育研究人员和人工智能专家在这个领域进行更多的研究。
Nov, 2023
该研究探讨了大型语言模型中的性别偏见问题,特别关注 GPT-2 和 GPT-3.5 等多个语言模型之间的比较,通过对生成的文本进行全面的文献综述和定量分析,发现了性别化词汇关联、语言使用和偏见叙述的问题,并提出了减少性别偏见的算法和数据增强技术。该研究强调了学科间合作的重要性和社会学研究在减少 AI 模型性别偏见中的作用。
Jul, 2023