- 软件架构视角的分布式信任
本文将从系统 / 软件架构的角度出发,对分布式信任概念在多个学科领域进行调查,并探讨分布式信任技术所带来的信任重分配 / 转移及其相关权衡在系统和应用中的应用,如区块链、联邦学习、可信 AI、数据共享等。
- 制造业和供应链中值得信赖、负责任、合乎伦理的人工智能:综述和新兴研究问题
本文探讨了 AI 可靠、道德、和值得信任的运用,分析了机器学习周期中的每个部分可能带来的信任问题,并提出了一些研究问题以帮助引导未来研究,以确保制造业中的 AI 应用安全和负责任。
- 可信 AI 的认证标签:基于实证混合方法研究的见解
通过对规模为 12 和 302 的访谈和代表普通大众的调查,研究了认证标签在低和高风险 AI 场景中传达可信度方面的表现;结果表明,认证标签可以显著增加终端用户在低和高风险情景下使用 AI 的信任和意愿,但在高风险情景下,终端用户对认证标签 - 人工智能 / 运筹学研讨会二报告
这篇论文讨论了可信 AI 和 OR 技术的基础要素,包括公正性、可解释性、鲁棒性和隐私以及人机互动等,通过这些要素的整合与协作,可最终满足社会需求和解决挑战问题。
- 人工智能引发的社会危害的多样性和综合人工智能法律的失败
该研究提出了分类 AI 系统以解决其引发的不同类型的社会危害,同时呼吁政府逐步适应现有法规以适应 AI 的创新发展。
- 在相关性转移下改进公平训练
本文提出了一种解决模型公平性中的相关性变化问题的新颖方法,即引入相关性偏移的概念和采用预处理步骤以减少相关性偏移,并借此通过优化问题来调整数据比率,从而使得数据处理算法可以有效地提高其准确性和公平性。
- 数字工程转型与可信 AI:迎接工业 4.0 中的新兴范式转变
本文讨论了工业革命 4.0 所带来的基本变化以及数字工程变革在其中的重要性,并强调了易于获得的机器智能和可靠 AI 原则与数字工程系统设计的重要性。
- 可信的 AI 系统需要准确性和解释性两者兼备
本文说明在 AI 经济和社会领域中,快速发展的 AI 技术在很多方面已经超越人类专家。但由于错误率、偏见、噪声干扰等因素,AI 系统的应用却面临诸多挑战。为应对这种问题,出现了很多政府和监管部门针对具有准确性和健壮性的可信赖、道德的 AI - 在医疗保健领域交付可信 AI 的挑战
本文探讨了可信人工智能的问题,特别关注于医疗应用,并强调了组织问责制在人们如何理解和信任智能系统中扮演的重要角色。为了说明组织问责制的重要性,作者进行了乳腺癌筛查和癌症治疗规划的民族志研究,提出了一些促进可信人工智能发展的方案。
- 非成像医学数据综合用于可信 AI 的全面调查
这篇论文旨在综述数据合成算法特别是针对非成像医疗数据的应用,并提供详细的算法、评估、限制和未来研究方向等综合性描述,以提高医疗人工智能的数据质量和可靠性。
- 走向可解释人工智能方法基准测试
本文以科学哲学理论作为分析视角,研究解释性方法在神经网络性能评估中的应用,并发现解释性方法的实用性依赖于人类领域知识和理解推理能力。本研究得出结论,基准测试解释性方法是迈向可信人工智能和机器学习的中心任务。
- 布鲁塞尔效应和人工智能:欧盟监管如何影响全球人工智能市场
本文探讨了欧盟即将发布的人工智能法规是否会在全球范围内产生 “布鲁塞尔效应”,并重点研究了该法规可能对其他司法管辖区的影响,认为欧盟的 “高风险” AI 系统法规在大型美国科技公司中很可能产生 “事实上的布鲁塞尔效应”,同时该法规对于开发和 - 基于 Dempster-Shafer 理论的可信人工智能应用 —— 胎儿脑 MRI 分割
提出了一个基于 Dempster-Shafer 理论的备选方法和故障安全机制的可靠 AI 理论框架和实际系统,可有效改善胎儿脑 MRI 的深度学习模型在不同医学中心获取的影像及病理情况下出现的标记误差问题。
- 人工智能的信任:解释性并非必要或充分,而黑盒交互是必要和充分的
人类如何信任人工智能及如何评估其可信度及可靠性这是应用机器学习中最为基础的问题。基于统计学习理论和社会视角,我们提出一种将人工智能作为工具的框架,即从区别人机信任与人机人信任的角度出发,运用行为证书来预测模型的行为并澄清了解释能力对于信任的 - 公平稳健训练的样本选择
提出了一种基于样本选择的算法来进行公平和鲁棒性训练,通过解决组合优化问题来实现样本无偏选择,并通过贪心算法解决了 NP 难问题,实验结果表明该算法在合成和基准真实数据集上具有优越的公平和鲁棒性。
- 重建信任:AI 中的酷儿方式应对人工智能风险管理
构建可信人工智能的首要任务是按照女性主义、非剥削的参与式设计原则,并强化外部公正的持续监测和测试。要想构建可信任的人工智能,还需要考虑公正与权利不均;支持组织,如 AI 中的酷儿组织,以确保人工智能领域的多样性和包容性;并考虑使用酷儿身份等 - 值得信赖的人工智能:计算视角
本文从计算的角度综述了 AI 可信赖性的最新技术,其中包含了六个方面:安全、非歧视与公平、可解释性、隐私、责任与审计能力以及环境福祉,旨在帮助读者理解可信赖 AI 的最新技术以及现实系统的应用。
- FR-Train: 一种基于互信息的公平和鲁棒训练方法
提出了一种名为 FR-Train 的实现公平和鲁棒的模型训练技术,其中的一种新的方法是添加一个附加鉴别器来识别受污染的数据并减少其影响,通过缓解数据偏见和抵御数据污染,实验结果显示 FR-Train 在公平性和准确性方面几乎没有下降,并演示