DALL-E 2 的伦理状况
本文是一篇文献综述,探讨了 AI 生成模型在静态和交互媒体中简化视觉创造流程的巨大潜力及其在技术和伦理方面对多个重要产业的影响,涵盖了 AI 文本到图像生成、Midjourney、Stable Diffusion、AI 伦理、游戏设计、数字艺术和数据洗白等方面的关注点和挑战,以及如何通过适当的监管解决相关的法律、伦理等问题。
May, 2023
本文探讨了 AI 和 NLP 领域中的伦理学问题,重点关注了自动化伦理判断的 Delphi 模型,并提出了批判性的观点和如何通过透明度、民主价值观和简单明了的问责机制来推动机器伦理学的发展。
Nov, 2021
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
生成型 AI 系统的情感表达能力对于 AI 系统的有效性至关重要,特别是那些旨在支持人类心理健康的系统。本研究旨在通过设计一项调查,测量生成型 AI 表达的情感与人类感知的一致性,以回答 AI 如何成功地表达特定情感的问题。通过评估多个生成型图像模型在表达积极和消极情感方面的表现,并分析其中的性能差异,我们发现生成型 AI 模型能够表达出与人类情感相一致的情感表达,但这种一致性在不同 AI 模型和情感本身上存在显著差异,我们还对未来改进的领域进行了分析,并讨论了对于旨在支持心理健康的未来 AI 系统的意义。
May, 2024
本研究关注于采用多模态人工智能实现诸如完成句子或回答问题等任务,探讨其伦理评估的挑战,并通过互动式人类反馈创造一个多模态伦理数据库,然后利用该数据库构建算法对模型的道德性进行自动评估,包括 RoBERTa 和多层感知器分类器等。
Apr, 2023
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
本文介绍了如何将 DALL-E、GPT-3 和 CLIP 与 CAD 软件集成在 3DALL-E 中,让用户可以根据他们建模的内容构造文本和图像提示。通过与 13 个设计师进行的研究,我们发现设计师们看到了将 3DALL-E 纳入他们的工作流程,并使用文本到图像 AI 技术进行参考图像、渲染、材料和设计考虑的巨大潜力。最后,我们提出了 3DALL-E 如何与现有的生成设计工作流程融合,以及将提示文献作为人工智能设计历史形式的探讨。
Oct, 2022
通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理争论的全面概述,并讨论了结果、评估了文献中的不平衡现象,并探讨了未经证实的风险场景。
Feb, 2024