值得信赖的人工智能的调查、分类和未来方向:战略决策的元决策
利用创新的可信人工智能(TAI)框架,通过结合 AI 的三个关键组成部分:表示空间、损失函数和优化器,以及十二个 TAI 属性,来解决决策制定中信息可信性的难题。该框架被用于实验,在科技行业的战略性投资决策中,应用给定数据集训练出的最优预测模型。研究者还展望了 TAI 研究的未来方向。
Nov, 2023
本研究综述了值得信赖的人工智能(TAI)及其各种定义,提出了离开支配和工程语境中的责任或伦理人工智能等术语以明确任何混淆的建议,并强调了公平性、偏见、风险、安全性、可解释性和可靠性等关键属性和特性以发展一个普遍框架来处理这些问题,同时考虑了欧盟、中国和美国在 AI 领域的政策和法规以及跨国公司面临的调整挑战,提出了一个新的框架 SFMA 来执行 TAI 和规范化措施,同时警示过度规制对 TAI 和技术创新可能造成的危害。
Mar, 2024
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
人工智能在我们的日常生活中越来越广泛地使用,尤其在各种应用、服务和产品中。因此,从用户角度来看,对人工智能的信任或不信任变得非常重要。这篇论文通过系统文献综述,探讨了当前人工智能领域的信任概念,并研究了不同类型的人机交互中的信任以及其对不同领域的技术接受度的影响。此外,还提出了技术和非技术的可信度指标以及一些可信度衡量标准,并分析了一些人工智能中的主要破坏因素和信任建立因素,并为实现可信度从而实现人工智能的可靠过渡提出了一些未来的方向和可能的解决方案。
Mar, 2024
本研究探讨了现有方法对于以用户为中心的服务生态系统中 AI 信任度评估的适用性,并提出了一种面向系统化且以用户为中心的值得信赖的 AI 研究议程。
Feb, 2022
本文从计算的角度综述了 AI 可信赖性的最新技术,其中包含了六个方面:安全、非歧视与公平、可解释性、隐私、责任与审计能力以及环境福祉,旨在帮助读者理解可信赖 AI 的最新技术以及现实系统的应用。
Jul, 2021
国家物理实验室 (NPL) 在可信人工智能 (TAI) 领域进行的研究回顾,特别是在计量学,即测量科学的背景下,关于可信机器学习 (TML)。我们描绘了 TAI 的三个广泛主题:技术、社会技术和社会,这些主题在确保开发的模型可信且可以依赖于做出负责任决策方面起着关键作用。从计量学的角度,我们强调对不确定性的量化(UQ)及其在 TAI 框架中的重要性,以提高人工智能系统输出的透明度和信任度。然后,我们讨论了 NPL 在 TAI 中正在开展的三个研究领域,并探讨了 AI 系统认证与 TAI 特征的符合性。
Jun, 2024
提出了一种通用的解释型 AI 模型 TRUST,采用因子分析、互信息和多模态高斯分布等方法,用于解释海量数字数据应用中黑盒子型 AI 的输出,案例研究表明该模型在工业物联网网络安全领域表现良好,对新的样本的解释成功率平均可达到 98%,且在性能、速度和解释方式等方面优于流行的 LIME 模型。
May, 2022