ChatGPT如何改变媒体对人工智能的叙事:基于框架语义的半自动叙事分析
本文基于精神分析学和批判性媒体研究的资源,将大型语言模型(LLMs)作为自动化主体进行分析,并通过这种方式对AI行为进行分析,包括其对偏见和伤害的产生。我们介绍了语言模型的重要性和风险,并通过与OpenAI的 InstructGPT 进行探索性访谈来作为案例研究。我们的研究发现,这些自动化的语言产生可以引起人的注意,产生进一步的反移情转移。因此,我们得出结论,批判性媒体方法和精神分析理论共同为我们理解由 AI 驱动的语言系统新的强大智能提供了一种有益的视角。
Dec, 2022
本研究利用大规模实验展示了如何用人工智能工具改善有争议话题的在线对话,从而提高参与者认为自己在会话中被理解的感受和对话的质量,减少政治分歧和恶意,而不改变对话内容或人们的政策态度。
Feb, 2023
本文通过对10902篇有关ChatGPT人工智能聊天机器人与技术的主流新闻标题的文本挖掘及自然语言处理的定量数据分析,发现ChatGPT和人工智能在主流媒体中的情感分析结果更积极,但新闻标题中超过65%的高频率的词汇都是关于大型科技公司和行业问题,例如安全、监管和监督,而就业、人种多样性、伦理、版权、性别和女性等主题则极少被提及,本文为大科技公司和大媒体之间权力结构和勾结的严格分析。
May, 2023
通过比较ChatGPT和人类在进行相同任务时的词汇和词汇丰富性,研究表明ChatGPT倾向于使用较少的不同单词和较低的词汇丰富性,进一步的研究需要了解ChatGPT和其他生成型AI工具对不同类型的文本和语言的词汇和词汇丰富性的影响。
Aug, 2023
通过将ChatGPT暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和/或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台Kialo创建的数据集来进行探索。我们的研究结果表明,尽管ChatGPT的以前版本在争议性话题上存在重要问题,但最近的版本(gpt-3.5-turbo)在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了“哲学”类别外,ChatGPT在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
本文通过对实际的ChatGPT数据集进行分析,研究 ChatGPT 的早期用户的兴趣话题、潜在职业以及这些因素随时间的变化,以理解人工智能与人类互动的变化以及语言模型用户参与的未来趋势。
Dec, 2023
本研究解决了大型语言模型(LLMs)对人类口头交流的潜在影响这一问题。通过分析来自2万多个YouTube频道的28万条英文视频,发现自ChatGPT发布以来,使用与其相关的特定词汇的趋势显著变化,表明人类交流中逐渐模仿LLMs。这一发现引发了对人工智能可能减少语言多样性或被误用进行大规模操控的社会及政策相关关注。
Sep, 2024
本研究针对生成式人工智能的影响,探讨了记者对ChatGPT发布时的情感反应。通过分析近100万条美国主要新闻机构记者的推文,发现ChatGPT推出后,记者的积极情绪和语调显著上升,表明他们对人工智能潜力的初步乐观。本研究强调了记者在技术创新解读中的关键角色,并揭示了他们的情感反应可能如何影响公众对新兴技术的叙述。
Sep, 2024
本研究探讨了瑞典在ChatGPT发布前后人工智能(meta)辩论的发展,填补了政治讨论中政治家声音缺失的空白。通过分析早期2010年代至今的精英层文件,研究显示学术精英而非政治精英主导了这一辩论,且近年来辩论更加实质化和风险导向,揭示了人工智能议程的形成过程。
Sep, 2024
本研究项目旨在分析希腊2023年大选中政治领袖的竞选演讲,填补了人类与人工智能合作在政治言辞分析中的空白。通过联合使用ChatGPT等大型语言模型,项目揭示了人工智能在分析政治演讲中的优势与局限性,并强调了人类监督在新闻项目中的重要性。这一创新示例为未来人机协作提供了宝贵的见解。
Oct, 2024