欧洲人工智能责任指令 —— 对一种犹豫不决的方法的批评和未来的教训
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
欧盟 AI 监管、混合监管策略、AI 法案等关键词所涵盖的论文讨论了 AI 监管的复杂性以及现行 AI 法案的不足,并呼吁建立协议以规范高性能开源 AI 系统的访问,以进一步完善 AI 技术的有效治理。
Oct, 2023
阐述了人工智能和机器学习技术在改善社会的同时,由于潜在的风险和固有的特征会导致安全和基本权利受到威胁,并提出需要改进现有的责任制度以保护受害者的利益的观点。
Nov, 2022
对欧盟 AI 规则的初稿进行了分类,并与计算机科学和法律专家一起将其按照 AI 法案进行分类,表明需要更加明确具体的规定,并且只有大约 30%的 AI 系统被 AI 法案约束,其余分类为低风险。
Mar, 2023
生成式人工智能和大型语言模型的出现标志着人工智能领域的范式转变。本文分析欧盟背景下产生式人工智能和大型语言模型的法律和监管影响,着重分析责任、隐私、知识产权和网络安全等方面。它批判性地审视现有和拟议的欧盟立法,包括《人工智能法案(AIA)》草案,以应对生成式人工智能和大型语言模型所带来的独特挑战。本文确定了立法框架中的潜在差距和不足,并提出建议,以确保生成模型的安全合规部署,使其与欧盟不断演变的数字环境和法律标准保持一致。
Jan, 2024
该文章提出了一种方法,通过利用产品质量模型来解释欧盟 AI 法案对高风险 AI 系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保 AI 系统既符合确定的质量标准,也符合法案对高风险 AI 系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟 AI 法案的合规性。
Mar, 2024
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的常见问题的定性数据。论文认为在遵循 AIA 方面仍有改进空间,并提及了一个相关项目,试图帮助这些组织解决问题。
Jul, 2023
人工智能的发展将深刻改变未来。欧盟已经颁布了《人工智能法案》,该法案以透明度、解释能力和人类理解和控制人工智能系统为重点,旨在保护民主和人道主义价值观,并推动人类中心的创新研究议程。人工智能系统评估方法的缺乏可能导致实施混乱,加重困惑。因此,人类与人工智能的相互作用的研究将对法规合规和人工智能进步至关重要,以确保人工智能的发展与人类价值和需求相一致,促进创新、负责任的技术发展,使其成为我们社会不可或缺的一部分。
Feb, 2024
欧洲委员会提议的 AI 法案对高风险 AI 系统的风险管理和风险可接受性的方法进行了批判性评估,认为议会的最新草案在风险管理方面更具可行性,更好地平衡了比例原则和可信度。
Jul, 2023