量化人工智能风险评估:机遇与挑战
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
Nov, 2022
当前人工智能技术缺乏管理长尾风险的系统性讨论,而过多提升其智能和能力可能导致比人类更强大的系统从而带来生存威胁;本文提供了分析人工智能灾难性风险的指南包括如何在今天保持系统的安全、在未来影响人工智能系统安全的策略以及平衡安全和通用性的方法。
Jun, 2022
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
建议建立国际负责风险评估的 AI 联盟,以监管和规范快速发展的高级人工智能系统,缓解社会规模的风险,并推动负责任的扩展政策和协调的评估风险反应。
Oct, 2023
本文提出了将 AI 组件纳入保证案例的更全面的证明结构,以显示其已实现定量目标的能力,包括测试结果、运行时方面、范围符合性和测试数据质量的数量化考虑和讨论.
Feb, 2022
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023
人工智能的优势和风险,现在正在使用的与风险相关的模型,以及一种名为 “人工智能转型风险 - 收益模型” 的新框架。该模型着重于以实际和创新的解决方案为重点,其中利益超过风险,并以医疗保健、气候变化 / 环境和网络安全三个应用案例为例,展示了这种强大的人工智能转型模型的原则、维度和过程的独特相互作用。
Apr, 2024
本文从数据分布和不确定性的角度提出了一个分析 AI 系统的框架,并通过大规模实验和深入调查达成了几个对更深入研究 AI 系统的需求和机会的关键发现。
Dec, 2022