ChatGPT 元喻:辅鹦鹉还是殖民扩音器?培养 AI 批判素养
通过评估 GPT-4,一个尖端的大型语言模型,在解释塞尔维亚诗歌中提取的新颖文学隐喻时所提供的自然语言解释能力,它未展现出之前接触过这些隐喻的迹象,但提供了详细而深刻的解释,被盲审的人员(不知道涉及 AI 模型的事实)将 GPT-4 生成的隐喻解释评为优于来自一组大学生的解释,这些结果表明 GPT-4 等大语言模型已经获得了解释复杂新颖隐喻的新兴能力。
Aug, 2023
本研究提出一种使用大型语言模型(LLM)与扩散模型的人工智能协作框架,旨在从语言隐喻中生成视觉隐喻,以便于传达含蓄含义并进行陈述。经过插图师的评估证明,这种协作模型的前景看好。
May, 2023
这篇文章探讨了在元宇宙环境中利用 ChatGPT 进行教育、娱乐、个性化和支持的利弊,展示了这一技术的动态个性化体验的可能性,但也强调了需要考虑隐私、偏见和道德问题,帮助读者了解 ChatGPT 对元宇宙的可能影响并评估了这些机遇和障碍。
Mar, 2023
本文基于精神分析学和批判性媒体研究的资源,将大型语言模型(LLMs)作为自动化主体进行分析,并通过这种方式对 AI 行为进行分析,包括其对偏见和伤害的产生。我们介绍了语言模型的重要性和风险,并通过与 OpenAI 的 InstructGPT 进行探索性访谈来作为案例研究。我们的研究发现,这些自动化的语言产生可以引起人的注意,产生进一步的反移情转移。因此,我们得出结论,批判性媒体方法和精神分析理论共同为我们理解由 AI 驱动的语言系统新的强大智能提供了一种有益的视角。
Dec, 2022
通过将 ChatGPT 暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和 / 或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台 Kialo 创建的数据集来进行探索。我们的研究结果表明,尽管 ChatGPT 的以前版本在争议性话题上存在重要问题,但最近的版本 (gpt-3.5-turbo) 在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了 “哲学” 类别外,ChatGPT 在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI 的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
该研究通过对 ChatGPT subreddit 上的 372 个用户生成的帖子进行主题分析,发现用户讨论的重要部分涉及玩耍的互动。研究通过构建一个初步的分类法,将这些互动分为六类:反映、开玩笑、模仿、挑战、欺骗和构思。总体而言,该研究揭示了与人工智能的玩耍互动的多方面性质,并强调了它们在塑造人工智能与人类关系中的重要性。
Jan, 2024
研究了大型语言模型与人类元认知在国际教练联合会(ICF)模拟考试中的元认知能力,结果发现大型语言模型在几个元认知指标上表现优于人类,尤其是在减少自负方面,但无论是语言模型还是人类在模糊场景中都缺乏适应性,倾向于遵循预先定义的决策框架。研究结果对开发辅助掌握教练能力的人工智能模拟器以及发展朝着更自主和直观的人工智能系统的元认知模块具有重要意义。
May, 2024
人工智能伦理和工程领域尚未充分认识到大型语言模型(LLMs)对动物将产生巨大影响,而本研究构建了一个评估系统来评估 LLM 对动物利益的考虑度,并指出模型的结果可以通过更完善和验证的系统得到改善和缓解,为将动物伦理纳入人工智能提供了一种可能的方法。
Mar, 2024