利用生成人工智能的迷惑流体动态展示
通过实验测量 “提示解释的流动性” 的一个方面,本研究试图定义并定量衡量人工智能中的创造行为,研究 AI 生成的图像是否展现出艺术家所表现的同一类型的 “创造性”。
Jun, 2024
本文是一篇文献综述,探讨了 AI 生成模型在静态和交互媒体中简化视觉创造流程的巨大潜力及其在技术和伦理方面对多个重要产业的影响,涵盖了 AI 文本到图像生成、Midjourney、Stable Diffusion、AI 伦理、游戏设计、数字艺术和数据洗白等方面的关注点和挑战,以及如何通过适当的监管解决相关的法律、伦理等问题。
May, 2023
通过使用 Gledzer-Ohkitani-Yamada (GOY) shell 模型的强烈简化表示,我们构建了一个小尺度湍流模型进行研究,重点探讨了机器学习与物理学的相结合,以及在将机器学习与微分方程相结合时存在的问题。
Jan, 2022
通过使用生成 AI 进行图像生成,我们收集并分析了超过 300 万个提示和它们生成的图像,通过自然语言处理、主题分析和可视化方法,我们旨在共同理解人们如何使用文本提示,这些系统对艺术家的影响以及它们所推广的视觉文化。我们的研究表明,提示主要关注表面美学,强化文化规范、流行的传统表达和意象。我们还发现许多用户关注流行的主题(如制作填色书、幻想艺术或圣诞卡片),这表明所分析的系统的主要用途是娱乐而非艺术性。
Jan, 2024
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
这项研究分析了由三种流行的生成人工智能工具生成的图像 - Midjourney、Stable Diffusion 和 DALLE 2 - 代表各种职业,以调查 AI 生成器中潜在的偏见。我们的分析揭示了这些 AI 生成器中两个主要关注领域,包括(1)系统性的性别和种族偏见,以及(2)面部表情和外貌方面的微妙偏见。
Mar, 2024
通过实验分析外观、运动和几何等方面,在外观、运动和几何等方面对比了真实世界的视频和由先进 AI 模型生成的视频,揭示了真实世界视频与合成视频之间的差距,并提出了集成外观、光流和深度信息的专家集合模型以进行假视频检测,提高了鲁棒性和泛化能力。
Jun, 2024
人工智能的发展催生了数字内容生成的转变,特别对网络影响操作产生了深远的影响。本文研究了扩散模型等生成深度学习模型在制造令人信服的合成图像方面的潜力和局限性,并对这些工具的可接近性、实用性和输出质量进行了批判性评估,同时分析了它们在欺骗、影响和颠覆威胁情景中的影响。在几个假设的网络影响操作中,本报告生成内容来展示这些 AI 驱动方法当前的能力和局限性。虽然生成模型擅长生成插图和非现实的图像,但创建令人信服的逼真照片内容仍面临重大挑战,受计算资源和必须人工指导改进的必要性限制。我们的探索强调了技术进步和其滥用潜力之间的微妙平衡,推动进行持续研究、防御机制、多学科合作和政策发展。这些建议旨在利用人工智能的潜力产生积极的影响,同时防范对信息完整性的风险,尤其是在网络影响的背景下。
Mar, 2024
本文提出了一种纯视觉方法来估计液体黏度,利用流体振荡的行为与黏度直接相关的事实,通过使用 3D 卷积自动编码器学习视频中不同流体振荡模式的潜在表示,从而在视觉上推断流体的类别或动力黏度。
Aug, 2023