- 面向 FPGA 的硬件感知神经网络丢弃搜索用于可靠的不确定性预测
提出了一种新的神经随机丢失搜索框架,旨在自动优化既有基于 dropout 的 Bayesian 神经网络及其硬件 FPGA 实现,实验结果表明该框架能够有效地找到 Pareto 最优设计配置。
- 工业 4.0 中的人工智能:对工业系统集成挑战的综述
在工业 4.0 中,网络物理系统 (CPS) 产生大量数据,可以被人工智能 (AI) 用于预测维护和生产计划等应用。然而,尽管已经证明了 AI 的潜力,但其在制造业等领域的广泛应用仍受限。本文通过综合审查最近的文献、标准和报告,确定了一些关 - 球重叠数量模型不可知反事实 (ONB-MACF):基于数据形态学的诚信人工智能反事实生成方法
通过分析数据形态策略在生成反事实解释中的价值,本研究引入了基于数据形态的可解释性策略 ——ONB-MACF 方法,并在多样化表格数据集上的多个质量指标中证明其优于现有最先进的反事实生成方法,支持了数据形态策略在构建可信人工智能方面的潜力。
- 负责任的人工智能:智能文献计量学中的画像
通过分析可解释的人工智能、可信的人工智能和道德人工智能等三个主要概念,本研究定义了负责任的人工智能并确定了其核心原则。方法论上,成功地将人工智能的能力应用于文献计量学,以加强知识发现,并通过领域见解对实验模型进行交叉验证。在实证方面,本研究 - 使用大型语言模型丰富机器学习数据集文档
本文提出了一种利用大型语言模型和提示策略自动提取文档中的关键维度,并将其用于丰富数据集描述的方法。通过此方法,可以创建机器可读的文档,改善数据集的可发现性,评估其符合当前的 AI 法规,并改善对其训练的 ML 模型的整体质量。
- 机器学习鲁棒性:入门指南
本章探索了机器学习(ML)中鲁棒性的基本概念及其在建立可信人工智能(AI)系统中的关键作用。讨论从详细定义鲁棒性开始,描绘了 ML 模型在各种意外环境条件下保持稳定性能的能力。通过不同视角剖析 ML 鲁棒性:与泛化能力的互补性,作为可信 A - 信任 AI 监管?辨别用户是建立信任和有效的 AI 监管的关键
通过进化博弈理论,我们证明了不同的监管机制对用户的信任和发展可信的 AI 有着重要的影响,包括通过政府认可和奖励监管者,以及用户对监管者有效性的信任决策。
- ICLRVTruST: 基于可控价值函数的数据中心可信 AI 的子集选择
提出了一种基于数据的可控信任 AI(DCTAI)框架 VTruST,该框架允许用户控制构建训练数据集时信任度指标之间的权衡,通过提出一种在线值函数为基础的训练数据子集选择算法来实现高效的 DCTAI 框架。实验结果表明,VTruST 在社交 - 自动驾驶车辆与人工智能的测试:来自网络安全、透明度、稳健性和公平性的观点与挑战
本研究探讨了将人工智能(AI)整合到自动驾驶汽车(AVs)中的复杂性,研究了 AI 组件引入的挑战以及对测试程序的影响,重点关注了可信 AI 的一些基本要求。涵盖了 AI 在 AVs 的各个操作层面上的作用、欧盟 AI 法案对 AVs 的影 - 评估可信 AI 医学数据质量的 METRIC 框架:一项系统综述
通过系统评估医学数据集合,我们提出了 METRIC 框架,该框架包含了 15 个数据质量意识维度,帮助减少偏见、增加稳健性、提高可解释性,从而为医学中可信赖的人工智能奠定了基础。
- 2024 年《模型卡》:从可信度和风险管理角度重新分类伦理考虑的类别
该研究论文重新定义了原始模型卡片中的伦理考虑类别为风险环境和风险管理,并添加了新的可信度类别,介绍了可信度的基本特性,以及欧盟委员会、OECD 和美国 NIST 等组织发布的有关可信度的准则。
- 通过鲁棒性改进和解释引导训练实现忠实的文本分类解释
提出了一种名为 REGEX 的方法,通过改善模型的鲁棒性和引导解释训练,实现对文本分类的更准确的特征解释,实验证明 REGEX 在各种设置下提高了解释的准确性,并在两个随机化测试中取得了一致的增益。此外,使用 REGEX 产生的高亮解释来训 - 可信人工智能:决定何时决策
利用创新的可信人工智能(TAI)框架,通过结合 AI 的三个关键组成部分:表示空间、损失函数和优化器,以及十二个 TAI 属性,来解决决策制定中信息可信性的难题。该框架被用于实验,在科技行业的战略性投资决策中,应用给定数据集训练出的最优预测 - SABAF: 基于对抗滤波消除神经网络中的强属性偏差
该研究旨在提升公平和有保证的人工智能发展中,确保神经网络不依赖受保护属性(例如种族、性别、年龄)进行预测。通过分析现有属性偏差去除方法的局限性,研究发现其在面对强偏差时存在局限,并提出了一种能够缓解这种局限的新方法,该方法在输入空间中使用对 - 2D 和 3D 深度学习模型鲁棒性和安全性对抗性攻击调查
通过构建威胁模型、综述 2D 和 3D 对抗性攻击的最新进展以及扩展对物理对抗性攻击的研究,本文探究了深度学习模型的鲁棒性与安全性,并总结了目前的热门话题,对挑战给出了见解,并对未来值得研究的可信 AI 提出了建议。
- 设计信托人工智能
当受托人组织通过数字界面与用户互动,或以人工智能自动化其操作时,它们需要设计这些人工智能系统以符合其职责,我们依法综合计算机科学和法律的最新研究,提出了设计和审计受托人人工智能的程序。
- 人工智能治理的多层框架
为了实现人工智能的潜在益处并减轻潜在风险,有必要制定一个符合伦理和基本人类价值的治理框架。本文提出了一个多级治理方法,涉及政府、企业和公民三个相互依赖的利益相关者群体,通过信任的维度(如能力、诚信和善意)来研究它们之间的相互关系。通过将治理 - 设计师与工程师之间寻找差异,为自动驾驶汽车开发可信 AI
这项研究探讨在设计和实施具有伦理问题的人工智能时,对于为自动驾驶汽车开发可信人工智能存在不同的观点,旨在通过探索多元观点,识别造成差异的关键因素,并提出弥合差距的策略。研究的三个支柱为透明度、可靠性和安全性,为自动驾驶汽车的可信人工智能领域 - 可信人工智能指南 -- AI 评估目录
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个 - 值得信赖的人工智能的调查、分类和未来方向:战略决策的元决策
提出信任 AI 系统是一个元决策的过程,针对不透明的 AI “黑匣子” 提出了 TAI 的新的分类法,涵盖了解释性,权威性和基础三个关键领域,并建立了十个维度来度量信任。旨在通过这个分类法,从战略决策的角度探索不同的 TAI 方法。