生成型人工智能与美国知识产权法
通过建立一个带有内生内容创作和 AI 模型发展的动态模型,我们研究了公平使用标准和 AI 版权可保护性对人工智能发展、AI 公司利润、创作者收入和消费者福利的影响,并揭示了这些影响如何受到各种经济和运营因素的影响,为政策制定者提供了动态、具体背景的决策方法和为全球监管环境中的商业领导者提供了见解。
Feb, 2024
近年来,生成人工智能(GenAI)取得了一系列的成功,能够生成高质量的代码、自然语言和图像。接下来的任务是将 GenAI 技术整合到产品中,这是软件开发人员通常进行的任务。在本文中,我们着重介绍了两种与产品开发涉及的风险:数据保护和版权问题。这两个方面对于 GenAI 来说至关重要,因为这项技术涉及用于模型训练和生成输出的数据。我们总结了关于当前知识的关键方面,每个使用 GenAI 进行产品开发的软件开发人员都应该注意这些方面,以避免可能导致责任索赔的重大错误。
Apr, 2024
大型生成型人工智能(GAI)模型可以生成逐渐无法区分是否人工生成的文本、图片、声音和其他形式的媒体。本文研究了训练数据的知识产权问题,重点关注生成模型的特性,探讨可能导致潜在知识产权侵犯的滥用行为,并提出了一个分类体系,对 GAI 中保护数据免受知识产权侵犯的技术解决方案进行系统评述。
Apr, 2024
这篇文献综述了生成人工智能领域中与版权侵权相关的问题,包括侵权检测的方法、保护版权作品的现有技术、评估侵权行为的资源和工具,以及 AI 相关法规和提案,从多个学科角度全面阐述了 AI 驱动内容和版权的意义和问题。
Mar, 2024
从技术角度综述了版权保护,包括数据源权利保护和生成模型版权保护,探讨了数据所有者保护内容和合法利用 DGMs 的方法,以及防止模型盗取和识别特定模型生成结果的策略。同时,强调了现有技术限制和待开发领域,并讨论了版权保护对 Generative AI 可持续和道德发展的重要性。
Feb, 2024
我们提出了一个框架,通过依靠现代生成型人工智能模型的概率性质和经济学中的合作博弈理论技术,按比例向版权所有者补偿其对人工智能生成内容的贡献,实现对生成型人工智能版权的解决。实验证明,我们的框架成功地识别了艺术品生成中使用的最相关的数据源,确保在版权所有者之间公平而可解释的收益分配。
Apr, 2024
我们的跨学科研究调查了美国法律如何有效应对生成式人工智能对人类价值观的挑战。通过对专家研讨会中构思的多种假设场景进行分析,我们发现现行法律框架在保护自主权,隐私,尊严,多样性,平等和身体 / 心理健康等基本价值观方面存在显著的差距和不确定性。宪法和民事权利似乎不足以提供对 AI 生成的歧视性输出的足够保护。此外,即使我们排除第 230 条规定的责任保护,由于人工智能系统的错综复杂和模糊不清的特点,要证明诽谤和产品责任的因果关系是一项具有挑战性的事业。为了应对生成式人工智能带来的独特和不可预见的威胁,我们倡导法律框架的演进,以认识新的威胁并向行业利益相关者提供主动的、可审计的指导方针。解决这些问题需要深入的跨学科合作,以确定伤害、价值观和缓解策略。
Aug, 2023
生成式人工智能和大型语言模型的出现标志着人工智能领域的范式转变。本文分析欧盟背景下产生式人工智能和大型语言模型的法律和监管影响,着重分析责任、隐私、知识产权和网络安全等方面。它批判性地审视现有和拟议的欧盟立法,包括《人工智能法案(AIA)》草案,以应对生成式人工智能和大型语言模型所带来的独特挑战。本文确定了立法框架中的潜在差距和不足,并提出建议,以确保生成模型的安全合规部署,使其与欧盟不断演变的数字环境和法律标准保持一致。
Jan, 2024
生成式人工智能在模拟真实图像、文本和数据模式方面展示了令人瞩目的能力,然而,大规模数据集的使用引发了对数据隐私和版权侵权的担忧,传统方法只能提供问题的局部解决方案。我们的论文对数据生命周期内的隐私和版权保护面临的多层面挑战进行了深入研究,并主张综合技术创新与伦理思考来综合性地解决这些问题,以生命周期的视角开展调查和设计解决方案,旨在激发更广泛的讨论,并在生成式人工智能中积极推动数据隐私和版权完整性的共同努力。
Nov, 2023