AI 生成内容的偏见:对大型语言模型所产生新闻的研究
这项研究通过从 GLOBE 项目获取的价值问题激发 ChatGPT(OpenAI)和 Bard(Google)来探讨了大型语言模型的文化自我认知,结果显示它们与英语国家和经济竞争力强的国家的价值观最为相似。认识到大型语言模型的文化偏见并理解它们的工作方式对社会中的所有人都非常重要,因为我们不希望人工智能的黑盒子延续偏见,使人类在无意中创造和训练更加带有偏见的算法。
Dec, 2023
通过建立新的数据集并使用九个大语言模型,本研究研究了人工撰写文章和机器生成文章之间的性质变化以及政治偏见的检测,结果显示基准模型和经过调整的模型之间存在显著差异,并且大语言模型在分类器角色中也显示出政治偏见,为进一步研究大语言模型政治偏见及其影响提供了一个基础。
Jun, 2024
研究聚焦于大型语言模型在编程教育中的应用,特别关注人工智能生成内容检测器在学术不端中的潜在漏洞,并通过生成代码来检验大型语言模型对于绕过检测的努力。研究结果表明现有的人工智能生成内容检测器在区别人工编写的代码和人工智能生成的代码方面表现不佳。
Jan, 2024
利用大型语言模型(LLMs),本文研究了识别误导性与非误导性新闻标题的效果。研究发现模型性能存在显著差异,ChatGPT-4 在一致标注者就误导性标题达成一致意见的情况下表现出更准确的结果。文章强调了人本评估在开发 LLMs 中的重要性,旨在将技术能力与细腻的人类判断力相结合。研究结果对 AI 伦理问题具有借鉴意义,强调了在技术先进的同时,还需要考虑伦理道德和人类解读的微妙性。
May, 2024
最近几年,大型语言模型和扩散模型等生成人工智能模型在内容生产方面产生了革命性的影响,其生成的内容已嵌入到日常生活和工作的各个方面,涵盖了文本、图像、视频和音频。尽管人工智能生成的内容的真实性越来越高,接近人类创作水平,但这些技术也导致了伪造的人工智能生成内容的出现,给真伪信息的鉴别带来了新的挑战。本文提出了一个新的分类方法,更全面地介绍了目前伪造的人工智能生成内容的方法。接下来,我们探讨了伪造的人工智能生成内容的模态和生成技术,归类为人工智能生成的虚假信息和误导信息。在多个角度上,我们介绍了伪造的人工智能生成内容的检测方法,包括欺骗性伪造的检测、深度伪像的检测和错觉性伪造的检测。最后,我们讨论了未来研究的重要挑战和有希望的研究领域。
Apr, 2024
记者在使用大型语言模型(LLMs)时存在与 AI 的互动,而研究揭示了记者如何向 LLM 提供敏感材料并以有限的干预发表机器生成的文章,因此呼吁进一步探讨 AI 的负责任使用以及在新闻环境中使用 LLMs 的明确准则和最佳实践。
Jun, 2024
利用新闻媒体进行数据分析,我们形成了一个包含十个类别的人工智能影响分类法,并通过评估模型发现,细调的模型与新闻媒体所识别的负面影响分类几乎一致,而指令型模型则在某些类别的影响生成上存在差距。这项研究凸显了当用于预测影响时,最先进的 LLMs 存在潜在偏见,并展示了将较小的 LLMs 与新闻媒体所反映的多样化影响进行调整以更好地反映这些影响的优势。
Jan, 2024
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
该研究探讨了大型语言模型中的性别偏见问题,特别关注 GPT-2 和 GPT-3.5 等多个语言模型之间的比较,通过对生成的文本进行全面的文献综述和定量分析,发现了性别化词汇关联、语言使用和偏见叙述的问题,并提出了减少性别偏见的算法和数据增强技术。该研究强调了学科间合作的重要性和社会学研究在减少 AI 模型性别偏见中的作用。
Jul, 2023