在生成文化悬崖边缘
最近的文本到图像生成模型(如稳定扩散)非常擅长模仿和生成受版权保护的内容,这引起了艺术家们的担忧,他们担心自己的独特风格可能会被不当复制。为了解决这个问题,本文将 “艺术版权侵权” 问题重新定义为对图像集进行分类问题,而不是探究图像间的相似性。我们首先介绍了 ArtSavant,这是一个实用的工具,通过与由 WikiArt 策展的 372 位艺术家作品组成的参考数据集进行比较,可以确定艺术家的独特风格,并识别其是否出现在生成的图像中。我们利用两种互补的方法对图像集进行艺术风格分类,包括 TagMatch,这是一种新颖且可解释的方法,更适合非技术相关的利益相关者(艺术家、律师、法官等)广泛使用。利用 ArtSavant 进行大规模实证研究,以量化的方式揭示了三种流行的文本到图像生成模型中艺术风格被复制的普遍情况。在包括许多著名艺术家在内的大量艺术家的数据集中,仅有 20%的艺术家的风格有被当今流行的文本到图像生成模型简单指令提示复制的风险。
Apr, 2024
本文探讨生成式 AI 模型对艺术创作的影响,重点关注了不正当使用艺术家作品的问题以及市场利益转移,同时指出若应用得当,AI 生成模型有潜力成为艺术的一种积极的新方式,不会取代或损害现有的艺术家。
Sep, 2022
本文是一篇文献综述,探讨了 AI 生成模型在静态和交互媒体中简化视觉创造流程的巨大潜力及其在技术和伦理方面对多个重要产业的影响,涵盖了 AI 文本到图像生成、Midjourney、Stable Diffusion、AI 伦理、游戏设计、数字艺术和数据洗白等方面的关注点和挑战,以及如何通过适当的监管解决相关的法律、伦理等问题。
May, 2023
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
这篇研究论文探讨了人工智能生成图像的创作方式以及弊端,如训练数据的偏见、合成数据常态化可能导致未来图像生成系统的质量下降,以及文本生成图像对人们想象力、抱负和发展的潜在长期影响。
Jun, 2023
此篇研究论文讨论了基于 transformer 的 AI 文本生成系统(例如 GPT-3)和基于 AI 的文本到图像生成系统(例如 DALL-E 2 和 Stable Diffusion)如何改变数字艺术和电子文学领域,并探讨了由这些系统创造的新文学表达形式。研究者们将这些新的数字写作环境解读为一种文学方式,探索了这些环境对新文学艺术实践的不同潜力;同时,一个数字文化理论家研究了这些新兴文体的训练数据集的来源和影响。
May, 2023
大型生成型人工智能(GAI)模型可以生成逐渐无法区分是否人工生成的文本、图片、声音和其他形式的媒体。本文研究了训练数据的知识产权问题,重点关注生成模型的特性,探讨可能导致潜在知识产权侵犯的滥用行为,并提出了一个分类体系,对 GAI 中保护数据免受知识产权侵犯的技术解决方案进行系统评述。
Apr, 2024
文本到图像生成使用神经网络和扩展模型规模的创新模型架构与预测增强技术相结合的方法,提供了几种不同的方法并对其进行了详细比较和评价,为未来的工作提供了改进的可能路径。
Sep, 2023
生成式 AI 模型的应用带来了数字化机会,同时也引入了新的 IT 安全风险。在将生成式 AI 集成到工作流程中之前,公司、机构、开发者和操作员都应进行风险分析,并相应地调整和采取安全措施。
Jun, 2024
通过使用生成 AI 进行图像生成,我们收集并分析了超过 300 万个提示和它们生成的图像,通过自然语言处理、主题分析和可视化方法,我们旨在共同理解人们如何使用文本提示,这些系统对艺术家的影响以及它们所推广的视觉文化。我们的研究表明,提示主要关注表面美学,强化文化规范、流行的传统表达和意象。我们还发现许多用户关注流行的主题(如制作填色书、幻想艺术或圣诞卡片),这表明所分析的系统的主要用途是娱乐而非艺术性。
Jan, 2024