基于欧盟人工智能法案的质量管理系统设计
介绍了通过执行全面的AI生命周期治理来降低人工智能风险的最佳方法,定量评估现有模型的风险可以类比于如何评估已经建造的房屋的能源效率或医生根据一系列测试评估整体患者健康状况,本文探讨了这一思路,并讨论了这种方法如何改善AI的监管。
Sep, 2022
本文阐述了大规模语言模型(LLMs) 的崛起代表了人工智能(AI) 研究的重大进展,但是其广泛应用也带来了重大的伦理和社会挑战,需要开发新的审计程序来捕捉LLMs的风险。提出了一种三层审计方法,和其优缺点,并最终旨在扩展技术提供商和政策制定者的方法学工具箱来分析和评估LLMs。
Feb, 2023
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
在本研究中,我们结合欧洲联盟的最新监管努力和针对AI指南的初步提案与研究趋势:数据和模型卡片。我们建议在整个开发过程中使用标准化卡片来记录AI应用,主要贡献是引入了用例和操作卡片,并对数据和模型卡片进行了更新,以满足监管要求。我们的卡片引用了最近的研究以及监管规定的来源,并在可能的情况下提供了额外支持材料和工具箱的参考。我们的目标是设计出有助于从业人员在开发过程中开发安全AI系统的卡片,同时使得第三方对AI应用进行高效审计,易于理解,并在系统中建立信任。我们的工作结合了与认证专家、开发人员和使用开发的AI应用的个人的访谈洞察。
Jul, 2023
欧盟人工智能法案草案及伴随的标准化努力对人工智能系统的符合评估存在问题,不考虑实际的功能可信度和责任归属,而可靠的功能可信度评估应该是符合评估的核心。
Oct, 2023
该文章提出了一种方法,通过利用产品质量模型来解释欧盟AI法案对高风险AI系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保AI系统既符合确定的质量标准,也符合法案对高风险AI系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟AI法案的合规性。
Mar, 2024
建立AI审计标准委员会以开发和更新与AI技术发展相适应的审计方法和标准,以确保审核实践保持相关、健壮并能对AI的快速进展做出响应,此举有助于维护公众对AI的信任,促进AI行业的安全和伦理责任文化的发展。
Apr, 2024
AI专家建议在高风险的人工智能系统开发或部署之前,公司应该要求展示这些系统的安全性。本文旨在扩展这个想法并探讨其对风险管理的影响。我们认为开发或部署高风险人工智能系统的实体应该提供积极安全的证据,并确保其活动将风险保持在可接受的阈值以下。
Apr, 2024
该研究论文通过对EU AI法案规定的技术文档的深入分析,以AI风险管理为重点,提出了AI卡作为一种新颖的综合框架,通过人机可读的格式来表示AI系统的预期用途,以实现透明性、可理解性和互操作性,为法律合规性和一致性评估任务提供了自动化工具的开发能力。
Jun, 2024
本研究解决了欧盟人工智能法案中通用人工智能的不确定性估计问题,指出其在技术标准和合规解决方案中的重要性。文章提出不确定性估计作为确保模型法律合规和质量控制的有效措施,并强调尽管其提升了计算复杂性,但在满足透明度、准确性和可信度方面具有潜在的积极影响。
Aug, 2024