负责任机器学习系统的 AI 治理简介
基于调查最近的研究作品,这项综述填补了研究组织治理范围的空白,通过发展适用于公司的 GenAI 治理框架,超越了简单的总结,为公司利用 GenAI 的商业机会并抵御相关风险提供了目标和治理机制的大致范围。该研究提供了一个专注于 GenAI 治理的方法,为公司应对负责任的人工智能采用的挑战提供了实用的见解,同时也有助于技术人员开阔视野,以及发现新的研究方向。
Feb, 2024
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理水平与人工智能的信任维度相结合,提供了可用于进一步增强用户体验和指导与人工智能相关的公共政策的实用见解。
Jul, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
人工智能技术快速发展,已经在艺术创作、文字生成和编程等多个领域带来深刻变革,然而,智能技术的出现也在挑战人类的治理能力以及智能技术自身的治理问题。本文基于机器学习算法,通过分析人类治理人工智能的方式,探讨了人工智能接管人类的可能性,提出了人工智能治理的思路及建议。
May, 2023
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
人工智能工具在组织机构中的开发、部署和利用日益增多,负责任的人工智能 (RAI) 治理方法成为解决潜在 AI 风险和危害的重要机制。本研究采访了来自学术机构、政府、行业和非营利组织等不同类型和领域的 17 名技术参与者,研究他们在内部 RAI 治理方面的经验。研究结果揭示了组织机构对 RAI 的定义及其内部治理方法的多样性。研究还发现金融行业具备健全的模型治理,并在医疗领域中出现了类似 ARB 审查委员会的广泛算法和人工智能治理。研究表明 ARB 是更有影响力的内部 RAI 治理方法。研究结果对建立组织机构自己的内部 RAI 框架提供了一些建议,并为 ARB 和其他内部 RAI 治理方法的发展和效果评估提出了未来方向。
Jan, 2024
介绍了通过执行全面的 AI 生命周期治理来降低人工智能风险的最佳方法,定量评估现有模型的风险可以类比于如何评估已经建造的房屋的能源效率或医生根据一系列测试评估整体患者健康状况,本文探讨了这一思路,并讨论了这种方法如何改善 AI 的监管。
Sep, 2022
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
通过研究先进的人工智能系统,我们指出了即将到来的风险,包括大规模社会伤害和恶意使用,以及人类对自主人工智能系统失去控制的不可逆性。鉴于人工智能的迅速发展,我们提出了人工智能研发和治理的优先事项。
Oct, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023