人工智能自动化合规蓝图优化
通过引入一种高度自动化的系统,我们可以捕获与人工智能系统和模型的合规性相关的数据,并跨越这些数据进行分析,从而加强和加速 AI 法规的合规评估。
Jun, 2024
人工智能技术飞快地发展,但合规成本却成为了人工智能初创企业的一大财务负担,从而导致合规陷阱的出现。尤其是全球各国复杂而多样化的监管过程,给予了有资源的技术公司比资金短缺的人工智能初创企业更多的优势,这一趋势的持续可能导致大规模的人工智能初创公司消失,并且使巨型科技公司垄断人工智能技术。因此,本文从现场应用的角度出发,深入探讨了人工智能商业运营的合规成本问题。
Jan, 2023
本研究回顾并总结了机器学习在法证图像分析中的高风险性质,概述了高风险人工智能系统的强制要求,并讨论了这些要求在两个法证应用(车牌识别和深度伪造检测)中的实际应用。目的是提高人们对即将发布的法律要求的认识,并指出未来研究的方向。
Mar, 2022
本文探讨如何规范人工智能系统,研究发现通过两个公共部门采购清单可标识现在和未来技术创新方面的人工智能是否符合规定要求,并且确认需跨学科合作来满足某些要求。
Jun, 2023
该论文为澳大利亚金融监管机构开发了一种基于人工智能技术(如自然语言处理、机器学习和深度学习)的方法,以系统性地对个人财务咨询文件进行监管风险评估,为文件的各种风险因素提供红黄绿灯评级,并能快速识别高风险文件。这是一个关于开发面向政府和公共部门人工智能系统的公私合作的案例研究。
Oct, 2019
现代软件是许多学科和应用环境中日常活动的重要组成部分。通过利用人工智能引入智能自动化在许多领域取得了突破。人工智能的有效性可以归因于诸多因素,其中之一是数据的不断增加。监管框架(如欧洲联盟的常规数据保护条例)出台以确保个人数据的保护。收集、处理或共享个人数据的软件系统必须符合这些法规。开发符合要求的软件在很大程度上取决于满足适用法规中规定的法律要求,这是软件开发流程中需求工程(RE)阶段的核心活动。RE 主要涉及对系统需求(包括法律要求)进行规定和维护。描述组织为处理个人数据而实施的政策的法律协议可以作为除法规外获取法律要求的另一信息来源。在本章中,我们探讨了分析法律要求的各种方法,并以 GDPR 为例进行了说明。具体来说,我们描述了从法规中创建机器可分析表示的可能替代方法,调查了现有的自动化手段以便对法规进行合规验证,并进一步反思了法律要求分析的当前挑战。
Nov, 2023
该文章提出了一种方法,通过利用产品质量模型来解释欧盟 AI 法案对高风险 AI 系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保 AI 系统既符合确定的质量标准,也符合法案对高风险 AI 系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟 AI 法案的合规性。
Mar, 2024
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Sep, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023