从融合之地到曲解探索生成 AI 中的危害
该研究探讨引起关注的生成式语言模型在教育领域可能产生的心理社会危害,分析了与学生课堂互动相关的 15 万个 100 字的故事中生成式语言模型所产生的角色人口统计学和再现伤害,强调了生成式人工智能工具在多样化社会环境中部署和使用时对于具有边缘化和少数族裔身份的用户体验可能产生的心理社会影响的重要性。
May, 2024
该论文采用一种方法来研究生成式 AI 工具对社会的影响,主要关注 ChatGPT 这一案例,评估其对社会各个领域的潜在影响,并阐述综合文献回顾的研究结果,包括正面效应、负面效应、新兴趋势和机遇领域,该分析旨在提供深入讨论的见解,从而激励政策、规范和负责任的发展实践,促进以人为中心的人工智能。
Mar, 2024
通过对现有学术文献和大约 200 起滥用报告事件的定性分析,我们提出了一种基于深度学习和多模态人工智能的滥用策略分类方法,并揭示了滥用的关键模式、潜在动机和攻击者如何利用系统能力的方式。
Jun, 2024
生成式人工智能技术(GenAI)可能被用于积极和消极目的,这篇论文讨论了 GenAI 所带来的双重用途困境,并提出了针对此问题的短期和长期目标,旨在引发学术界对此重要主题的深入讨论。
Aug, 2023
2023-2024 学年,ChatGPT 的广泛普及将对学术诚信产生影响,高中学生中 77% 报告过使用人工智能驱动的写作辅助工具从事不诚实行为,这种被 Chan(arXiv:2306.03358v2)称为 'AI-giarism' 的 AI 驱动写作辅助工具将使抄袭行为更加易于获取且难以检测,此外,这些担忧也引发了关于这一技术革命性质的更广泛问题,包括自主性、数据隐私、版权和公平性。本文旨在从社会公正的角度探讨生成型人工智能,研究这些模型的训练、固有的偏见以及检测人工智能生成写作中的潜在不公正之处。
Aug, 2023
通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理争论的全面概述,并讨论了结果、评估了文献中的不平衡现象,并探讨了未经证实的风险场景。
Feb, 2024
分析和讨论生成智能系统的科学成就、对社会的潜在影响以及对个体提出的规范问题,着重关注多模态大型语言模型在复杂的人工智能系统中以无监督的方式执行行动的可能性。
Apr, 2024
通过分析语音生成事件,我们提出了一个模型 AI 伦理和安全风险路径的概念框架,该框架可用于开发语音生成器的伤害分类法,并支持相应的政策干预和决策制定。
Jan, 2024
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023