通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理争论的全面概述,并讨论了结果、评估了文献中的不平衡现象,并探讨了未经证实的风险场景。
Feb, 2024
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
分析和讨论生成智能系统的科学成就、对社会的潜在影响以及对个体提出的规范问题,着重关注多模态大型语言模型在复杂的人工智能系统中以无监督的方式执行行动的可能性。
Apr, 2024
该研究探讨引起关注的生成式语言模型在教育领域可能产生的心理社会危害,分析了与学生课堂互动相关的 15 万个 100 字的故事中生成式语言模型所产生的角色人口统计学和再现伤害,强调了生成式人工智能工具在多样化社会环境中部署和使用时对于具有边缘化和少数族裔身份的用户体验可能产生的心理社会影响的重要性。
May, 2024
通过分析语音生成事件,我们提出了一个模型 AI 伦理和安全风险路径的概念框架,该框架可用于开发语音生成器的伤害分类法,并支持相应的政策干预和决策制定。
本文提出了评估生成 AI 系统社会影响的标准方法与分类,并基于技术系统和社会分别探讨了七种与五个大类共计 21 个社会影响类别,并提出了对现有评估的限制进行分析的建议,并为 AI 研究社区建立了一个评估存储库来贡献现有的评估。
Jun, 2023
人工智能与生成式人工智能的应用领域,特别是语言生成与伦理考虑的最新研究成果与未来发展轨迹的综合分析。
该论文采用一种方法来研究生成式 AI 工具对社会的影响,主要关注 ChatGPT 这一案例,评估其对社会各个领域的潜在影响,并阐述综合文献回顾的研究结果,包括正面效应、负面效应、新兴趋势和机遇领域,该分析旨在提供深入讨论的见解,从而激励政策、规范和负责任的发展实践,促进以人为中心的人工智能。
Mar, 2024
本研究关注于采用多模态人工智能实现诸如完成句子或回答问题等任务,探讨其伦理评估的挑战,并通过互动式人类反馈创造一个多模态伦理数据库,然后利用该数据库构建算法对模型的道德性进行自动评估,包括 RoBERTa 和多层感知器分类器等。
Apr, 2023
本研究通过系统调查、基于文本挖掘的全球和国家指南、独立研究以及八十所大学层面的指导,提供了对教育中生成式人工智能(GAI)和大型语言模型(LLMs)的机会和挑战进行细致的理解。研究强调了在这些技术的整合过程中平衡方法的重要性,以 harness 利用其技术优势的同时,考虑伦理问题,并确保公平的获取和教育结果。最后,本文提出了促进负责任创新和道德实践,指导将 GAI 和 LLMs 整合到学术中的建议。