欧洲的人工智能监管:从 AI 法案到未来监管挑战
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的常见问题的定性数据。论文认为在遵循 AIA 方面仍有改进空间,并提及了一个相关项目,试图帮助这些组织解决问题。
Jul, 2023
对欧盟 AI 规则的初稿进行了分类,并与计算机科学和法律专家一起将其按照 AI 法案进行分类,表明需要更加明确具体的规定,并且只有大约 30%的 AI 系统被 AI 法案约束,其余分类为低风险。
Mar, 2023
为了最大化人工智能技术的好处并最小化其风险,我们需要一个国际的人工智能治理框架,包括一个新的人工智能监管机构来制定规范统一的 AI 技术标准并协调世界各地的政策制定。
May, 2020
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022
该文章提出了一种方法,通过利用产品质量模型来解释欧盟 AI 法案对高风险 AI 系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保 AI 系统既符合确定的质量标准,也符合法案对高风险 AI 系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟 AI 法案的合规性。
Mar, 2024
人工智能的发展将深刻改变未来。欧盟已经颁布了《人工智能法案》,该法案以透明度、解释能力和人类理解和控制人工智能系统为重点,旨在保护民主和人道主义价值观,并推动人类中心的创新研究议程。人工智能系统评估方法的缺乏可能导致实施混乱,加重困惑。因此,人类与人工智能的相互作用的研究将对法规合规和人工智能进步至关重要,以确保人工智能的发展与人类价值和需求相一致,促进创新、负责任的技术发展,使其成为我们社会不可或缺的一部分。
Feb, 2024
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本文展示了该监管的具体方法、优点和缺点,有助于更好的理解 AI 和监管之间的关系及其中的规范决策。
Sep, 2022
本文批判性地探讨了监管在 AI 领域中抑制创新的观点,讨论了目前 AI 监管的趋势,特别是提出的欧洲 AI 法案及支持其实施的标准,分析和批判了支持监管抑制创新观点,并提出了替代性观点,阐明监管和标准如何促进 AI 领域的创新。
Feb, 2023