遵规卡:用于自动化 AI 监管遵守的计算工具
该研究论文通过对 EU AI Act 的分类,开发了一个问卷,提供定量数据和洞见。数据分析显示了不同合规性类别下组织所面临的各种挑战,并研究了组织特征(如规模和行业)对合规性的影响。此外,论文还分享了被调查对象对 AI Act 内容和应用的常见问题的定性数据。论文认为在遵循 AIA 方面仍有改进空间,并提及了一个相关项目,试图帮助这些组织解决问题。
Jul, 2023
本研究回顾并总结了机器学习在法证图像分析中的高风险性质,概述了高风险人工智能系统的强制要求,并讨论了这些要求在两个法证应用(车牌识别和深度伪造检测)中的实际应用。目的是提高人们对即将发布的法律要求的认识,并指出未来研究的方向。
Mar, 2022
该文章提出了一种方法,通过利用产品质量模型来解释欧盟 AI 法案对高风险 AI 系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保 AI 系统既符合确定的质量标准,也符合法案对高风险 AI 系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟 AI 法案的合规性。
Mar, 2024
本文研究了高度规范的行业比如银行和医疗领域中所遇见的遵循法规标准的云计算难题,提出了使用人工智能技术解决技术规范和法规控制之间的映射问题的方法,并进行了早期结果的展示和讨论
Jun, 2022
该研究论文通过对 EU AI 法案规定的技术文档的深入分析,以 AI 风险管理为重点,提出了 AI 卡作为一种新颖的综合框架,通过人机可读的格式来表示 AI 系统的预期用途,以实现透明性、可理解性和互操作性,为法律合规性和一致性评估任务提供了自动化工具的开发能力。
Jun, 2024
人工智能技术飞快地发展,但合规成本却成为了人工智能初创企业的一大财务负担,从而导致合规陷阱的出现。尤其是全球各国复杂而多样化的监管过程,给予了有资源的技术公司比资金短缺的人工智能初创企业更多的优势,这一趋势的持续可能导致大规模的人工智能初创公司消失,并且使巨型科技公司垄断人工智能技术。因此,本文从现场应用的角度出发,深入探讨了人工智能商业运营的合规成本问题。
Jan, 2023
在本研究中,我们结合欧洲联盟的最新监管努力和针对 AI 指南的初步提案与研究趋势:数据和模型卡片。我们建议在整个开发过程中使用标准化卡片来记录 AI 应用,主要贡献是引入了用例和操作卡片,并对数据和模型卡片进行了更新,以满足监管要求。我们的卡片引用了最近的研究以及监管规定的来源,并在可能的情况下提供了额外支持材料和工具箱的参考。我们的目标是设计出有助于从业人员在开发过程中开发安全 AI 系统的卡片,同时使得第三方对 AI 应用进行高效审计,易于理解,并在系统中建立信任。我们的工作结合了与认证专家、开发人员和使用开发的 AI 应用的个人的访谈洞察。
Jul, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
对欧盟 AI 规则的初稿进行了分类,并与计算机科学和法律专家一起将其按照 AI 法案进行分类,表明需要更加明确具体的规定,并且只有大约 30%的 AI 系统被 AI 法案约束,其余分类为低风险。
Mar, 2023