实现可验证的人工智能
本报告探讨了不同利益相关者所能采取的各种措施,以改善人工智能系统及其相关开发过程的安全性、公正性、隐私保护等方面的证明,分析了十种机制,并提出了旨在实施、探索或改进这些机制的建议。
Apr, 2020
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
通过从数据管理的角度分析多模态数据湖中的底层数据,包括文本文件、表格和知识图谱,并评估其质量和一致性,我们可以确保生成型人工智能的正确性,提升透明度,并更加自信地进行决策。我们的愿景是促进可验证的生成型人工智能的发展,为人工智能的可信和负责任使用做出贡献。
Jul, 2023
本文提出了 “自信 AI” 作为设计具有算法自信和用户信任的模型预测和报告结果的人工智能和机器学习系统的手段。自信 AI 的四个基本原则是可重复性,可信度,充分性和适应性,并分别用于探索当前人工智能 / 机器学习系统中的基本问题,共同提供自信 AI 的全面方法。
Feb, 2022
通过利用先进的人工智能进行形式验证和机械解释,我们描述了人类安全繁荣与强大人工通用智能(AGIs)共存的路径,并主张这是唯一能确保安全可控 AGI 的途径,提出了一系列能推动这个积极结果的挑战问题,并邀请读者一同参与这项工作。
Sep, 2023
该论文回顾和提出了在采用、推广和维护人工智能(AI)系统方面存在的问题,并使用设计和操作测试和评估过程,探讨了确定性能界限以管理预期用途的机会。该论文提供了一个假想案例,使用图像数据融合支持 AI 对象识别可证明性考虑精度与距离。
Nov, 2021
通过世界模型、安全规范和验证器的相互作用,提出了一系列保证安全的人工智能(AI)方法,旨在为 AI 系统提供高保证的量化安全保证,并描述了核心技术挑战和潜在解决方案。
May, 2024
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023