走向可信的 AI 开发:支持可验证声明的机制
整理了有关人工智能信任和人工智能的可信度的文献概述,强调了需要更明确区分这些概念并获取更多实证证据以了解人们信任行为的要素。指出对人工智能的信任不仅涉及对系统本身的依赖,还包括对人工智能开发者的信任。伦理原则如可解释性和透明性通常被认为能提高用户的信任,但关于这些特点如何实际影响用户对系统可信度认知的实证证据并不丰富或不太明确。应将人工智能系统视为社会技术系统,设计、开发、部署和使用系统的人员与系统本身一样重要,才能确定系统是否值得信任。忽视这些细微差别,人工智能的信任和可信度有可能成为针对任何人工智能系统的模糊术语。
Sep, 2023
通过从数据管理的角度分析多模态数据湖中的底层数据,包括文本文件、表格和知识图谱,并评估其质量和一致性,我们可以确保生成型人工智能的正确性,提升透明度,并更加自信地进行决策。我们的愿景是促进可验证的生成型人工智能的发展,为人工智能的可信和负责任使用做出贡献。
Jul, 2023
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
该论文关注了 COMPLYING WITH THE EU AI Act 准则并开发实施 AI 系统的情况,分析了不同伦理准则的文献细节、伦理 AI 框架的适用性等问题,提出了伦理 AI 的限制以及进行可靠的 AI 开发的建议
May, 2023
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
本文综述了因果方法对于提高可信 AI 解决方案的应用和发展,因为现有的 AI 模型大多缺乏对人类真实世界理解的因果关系的认识,从而导致了模型泛化性能差、不公平以及难以解释等问题。
Feb, 2023
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Sep, 2023