推进 AI 审计以加强 AI 治理
建立 AI 审计标准委员会以开发和更新与 AI 技术发展相适应的审计方法和标准,以确保审核实践保持相关、健壮并能对 AI 的快速进展做出响应,此举有助于维护公众对 AI 的信任,促进 AI 行业的安全和伦理责任文化的发展。
Apr, 2024
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
审查了欧洲立法机构提出的数字服务法案(DSA)和人工智能法案(AIA),发现 AIA 缺乏为研究人员和公民社会提供数据访问的监管机制,因此呼吁 DSA 和 AIA 的修改和补充以提供第三方审计和数据访问,以建立促进合规和监督机制的人工智能审计生态系统。
Feb, 2024
本文介绍了一种算法审计框架,可支持人工智能系统从开发到部署的全生命周期,以评估决策的符合情况并通过确保审计的完整性来填补开发和部署大规模人工智能系统的问责制鸿沟。
Jan, 2020
本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018
本文提出隐私增强技术在数据交换和分析中减小了隐私与性能之间的权衡,同样的工具可以为 AI 治理提供外部审查、审计和源代码验证的能力,并以信息流的方式查看这些不同的 AI 治理目标,强调了这些解决方案之间的互操作性和重要性。
Mar, 2023
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
基于调查最近的研究作品,这项综述填补了研究组织治理范围的空白,通过发展适用于公司的 GenAI 治理框架,超越了简单的总结,为公司利用 GenAI 的商业机会并抵御相关风险提供了目标和治理机制的大致范围。该研究提供了一个专注于 GenAI 治理的方法,为公司应对负责任的人工智能采用的挑战提供了实用的见解,同时也有助于技术人员开阔视野,以及发现新的研究方向。
Feb, 2024
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022
本文利用数据可视化的工具对 200 个标准化和指导人工智能发展的文件进行分析,探讨不同机构之间原则的共识和相似性,以此为未来的政策制定提供启示和引导。
Jun, 2022