值得信赖的人工智能:计算视角
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023
研究旨在提高人工智能系统的可信度和信任度,开发能够适应实际应用场景的人工智能系统,并将人类放在其中心地位,使其能够有效地使用系统,理解输出和解释结果以满足监管委员会的要求。
Jan, 2020
整理了有关人工智能信任和人工智能的可信度的文献概述,强调了需要更明确区分这些概念并获取更多实证证据以了解人们信任行为的要素。指出对人工智能的信任不仅涉及对系统本身的依赖,还包括对人工智能开发者的信任。伦理原则如可解释性和透明性通常被认为能提高用户的信任,但关于这些特点如何实际影响用户对系统可信度认知的实证证据并不丰富或不太明确。应将人工智能系统视为社会技术系统,设计、开发、部署和使用系统的人员与系统本身一样重要,才能确定系统是否值得信任。忽视这些细微差别,人工智能的信任和可信度有可能成为针对任何人工智能系统的模糊术语。
Sep, 2023
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
AI 系统的可信发展需要多学科治理,通过关键的系统检查(如能源消耗)来全面审查其生命周期中的社会影响,以及从计算机科学、社会学、环境科学等多学科角度讨论其互相关联的社会风险和无法同时满足健康的方面,从社会伦理影响评估的角度强调了全面解决 AI 系统紧迫问题的必要性,以揭示其对社会的有害影响,真正实现以人为中心的可信 AI。
Sep, 2023
人类计算是一种解决人工智能难题的方法,它需要与用户和驱动人类密切合作,建立双向信任是推动人类计算发展的重要问题,此文探讨了人类计算作为计算系统的可信度,社会可信度以及基于双向信任的人 - AI 协作,并讨论了实现值得信赖的人类计算的未来挑战和方向。
Oct, 2022
这项研究综合了当前和未来的人工智能应用所面临的伦理问题,从技术和社会角度对 AI 部署中的公平性、隐私和数据保护、透明度与可解释性等伦理原则进行了综述。
Nov, 2023