- ADESSE: 在复杂的重复决策环境中的建议解释
在人工智能驱动的决策过程中,提供一种人工智能代理与人类决策者之间协同关系的方法是一项重要挑战。本文介绍了一种名为 ADESSE 的方法,它通过生成解释来提高人类对智能代理的信任和决策能力。实证实验和用户研究结果表明,ADESSE 生成的解释 - 以人为本的联邦学习中的公平性无需人口统计
通过降低训练过程中的 Hessian 矩阵的最大特征值,我们介绍了一种新颖的偏差缓解方法,从而在确保联邦学习参与者之间存在公平的损失景观的基础上实现了无需敏感属性信息的公平。此方法还通过基于错误率和损失景观曲率属性来促进参与模型的聚合,从而 - 一种 HCAI 方法论框架:将其付诸实践以促进以人为中心的人工智能
提出以人为中心的人工智能 (HCAI) 方法论框架及其实施的三层方法,从而克服了当前框架中的弱点,并应对实施 HCAI 所面临的挑战,实现 HCAI 的设计、开发和部署。
- 实现以人为中心的人工智能:方法论视角
基于我们之前的工作,本文提出了一个综合的基于人为中心的人工智能(HCAI)框架,包括设计目标、设计原则、实施方法、跨学科团队和 HCAI 流程,同时提出了一个 “三层” 方法以促进框架的实施,我们相信这个系统性和可执行性框架可以克服当前 H - 开发有效的人工智能与人类团队合作:人 - 机联合认知系统的视角
人工智能与人类团队合作是新的设计范式,需要遵循以人为中心的人工智能 (HCAI) 方法。本文提出了人工智能与人类联合认知系统 (HAIJCS) 的概念框架,用于代表并实现人工智能与人类团队合作。
- 采用以人为本的 AI 方法实现公平公正可解释 AI
本文探讨了机器学习中公平性、可解释性、人本主义、社会偏差等问题,并提出了一种以人为本的人工智能方法,以增强分类系统和单词嵌入的可解释性和公平性,通过 D-BIAS 等可视化工具识别和缓解社会偏见。
- 走向多维度以人为中心的人工智能
本篇论文呼吁在设计支持人机互动的多领域工作流时采用全面的视角,包括互动范式、界面和系统等支持机制。
- 终端用户真正想要什么?人性化 XAI 技术在移动健康应用中的探究
该论文讨论使用以用户为中心的角度来解决人工智能不可解释性的问题,并通过在线调查分析用户的不同偏好和特征来设计可解释人工智能,结果将用户分为三类:强权、休闲和隐私导向型用户,从而为人工智能的实际应用带来更人性化的交互。
- 面向困难度调整的课程强化学习中的人类决策
研究人员设计了一个交互平台,利用人类的决策过程,通过向导课程强化学习结果,实现了成功地调整强化学习性能以适应人类期望困难程度的目标,并证明人类与计算机互动式课程增强学习的有效性,促进了该领域的发展。
- 可解释人工智能方法:一项调查
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
- AAAI道德解释型人工智能的场景与建议
人类有理智推断的能力,是人工智能系统需要学习的技能之一。本文通过研究一个涉及伦理规则的数据集,提出人工智能系统应如何实现可以模仿人类成因推断的能力,并给出了相关建议。