ChatGPT 的偏见是否应存在?大型语言模型中存在的偏见挑战和风险
本文探讨了人工智能语言模型 ChatGPT 的伦理问题,重点是偏见和隐私方面的考虑,并提出与 ChatGPT 相关的各方实践准则以促进其伦理使用。
May, 2023
对 ChatGPT 和其他生成人工智能模型(GAI)存在的潜在偏见在高等教育机构(HEIs)中的应用进行了伦理问题的讨论和相关研究的范围审查,结果表明,虽然存在对大型语言模型(LLMs)和 GAI 的潜在偏见的意识,但多数文章只在表面上接触到 “偏见” 问题,很少有人明确指出在什么情况下会发生何种偏见,并且也未对其对高等教育、教职员工或学生可能产生的影响进行讨论。因此,我们呼吁高等教育研究人员和人工智能专家在这个领域进行更多的研究。
Nov, 2023
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
本文回顾了人工智能中的哲学挑战、伦理和完整性风险,探讨了 AI 语言模型作为研究工具和研究主题的作用及其对科学家、参与者和评审人的伦理影响,并给出了十个建议以对更负责任的 AI 语言模型研究进行回应。
May, 2023
该研究论述了 ChatGPT,这是一个利用主题建模和强化学习生成自然回复的人工智能聊天机器人。通过探索从 GPT-1 到 GPT-4 的升级路径,讨论模型的特点、局限性和潜在应用,该研究旨在揭示将 ChatGPT 融入我们日常生活中可能存在的安全、隐私和伦理问题,并分析这些领域的开放问题,呼吁共同努力确保安全和道德无可争议的大型语言模型的发展。
Jul, 2023
本章检查了机器翻译在持续性别偏见方面的作用,强调了跨语言环境和统计依赖性所带来的挑战。提供了与传统神经机器翻译方法和作为机器翻译系统的生成式预训练变压器模型相关的现有研究的全面概述。通过在英意翻译环境中使用 ChatGPT(基于 GPT-3.5)的实验,进一步评估了 ChatGPT 目前解决性别偏见的能力。研究结果强调了在机器翻译系统中减少偏见的发展的持续需求,并强调了在语言技术中培养公平和包容的重要性。
Jan, 2024
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
本文讨论 OpenAIs ChatGPT,一种用于文本型用户请求(即聊天机器人)的生成式预训练转换器。讨论了 ChatGPT 及类似模型背后的历史和原则,以及其对学术界和学术研究出版的潜在影响。ChatGPT 被认为是自动准备论文和其他类型学术手稿的潜在模型。此外,还讨论了可能出现的潜在伦理问题,并将其置于人工智能、机器学习和自然语言处理的更广泛进展的背景之下。
Mar, 2023