不要信任,总是验证:可信 AI 的路线图?
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
本文从计算的角度综述了 AI 可信赖性的最新技术,其中包含了六个方面:安全、非歧视与公平、可解释性、隐私、责任与审计能力以及环境福祉,旨在帮助读者理解可信赖 AI 的最新技术以及现实系统的应用。
Jul, 2021
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
整理了有关人工智能信任和人工智能的可信度的文献概述,强调了需要更明确区分这些概念并获取更多实证证据以了解人们信任行为的要素。指出对人工智能的信任不仅涉及对系统本身的依赖,还包括对人工智能开发者的信任。伦理原则如可解释性和透明性通常被认为能提高用户的信任,但关于这些特点如何实际影响用户对系统可信度认知的实证证据并不丰富或不太明确。应将人工智能系统视为社会技术系统,设计、开发、部署和使用系统的人员与系统本身一样重要,才能确定系统是否值得信任。忽视这些细微差别,人工智能的信任和可信度有可能成为针对任何人工智能系统的模糊术语。
Sep, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Sep, 2023
本报告探讨了不同利益相关者所能采取的各种措施,以改善人工智能系统及其相关开发过程的安全性、公正性、隐私保护等方面的证明,分析了十种机制,并提出了旨在实施、探索或改进这些机制的建议。
Apr, 2020
人工智能正在快速发展,并已成熟用于许多应用领域,如自主系统、医学诊断和自然语言处理。本文概述了确保人工智能决策安全的技术,并讨论了未来的挑战。
Sep, 2023
本文综述了因果方法对于提高可信 AI 解决方案的应用和发展,因为现有的 AI 模型大多缺乏对人类真实世界理解的因果关系的认识,从而导致了模型泛化性能差、不公平以及难以解释等问题。
Feb, 2023