解释性人工智能中社会技术差距的绘图:解决XAI 中的差距框架
介绍了以人为中心的可解释人工智能作为一种方法,该方法考虑了价值观、人际动态和人工智能系统的社会情境性,通过反思的社会技术方法,提出了开放性研究问题,文献以解释系统为例,讨论了人类的因素如何影响系统技术进步,并提出了基于批判性技术实践的反思的HCXAI范式,以及价值敏感设计和参与式设计等策略。
Feb, 2020
介绍和探索社交透明度(ST)的概念,该概念将社会组织背景融入到解释人工智能决策的过程中,旨在提高人工智能决策的信任度、改善决策过程、促进组织集体行动和增强说服力。
Jan, 2021
本文介绍了可解释性人工智能(XAI)的不同用途,指出现有算法的评估方法对这些用途缺乏考虑,提出了一种基于使用情境的 XAI 评估方法,通过两项调查研究表明,这种方法更能满足用户的需求。
Jun, 2022
本研究介绍了四个新的可解释人工智能技术问题,这些问题围绕设计和评估算法,并呼吁建立基于人类需求的可解释人工智能技术开发研究范式,以保证人工智能在关键任务中的负责任使用。
Aug, 2022
本文阐述了Explainable AI(可解释的AI)缺乏单一定义的原因,并通过社会技术构建和许多参与者的不同解释提出了解释灵活性的概念。早期将多元化解释强行规范化会限制创新并导致过早的结论。我们分享了如何利用这种多元化来推进Explainable AI而无需等待定义上的共识。
Nov, 2022
我们提出了“Seamful XAI”的概念,通过在AI设计中策略性地揭示社会技术和基础设施不匹配,从而促进面向人类的可解释AI。我们探讨了这一过程,使用基于场景的共同设计活动,并与43名AI从业人员和用户分享了实证洞见、影响和关键反思,这个过程可以帮助从业人员预测和制定AI中的seams,如何通过seamfulness改善解释性,赋予最终用户能力,并促进负责任的AI。
Nov, 2022
本文提出一种基于系统论的统一、包容、用户中心分类法,旨在解决现有的以专家为中心的可解释人工智能方法的不足之处,以此评估适用于不同用户类型的解释方法的适当性和性能。
Mar, 2023
通过提出27个开放问题分类为九类,本文不仅强调了XAI及其在现实世界中的应用的进展,也解决了XAI中的挑战,并强调了更广泛的视角和协作努力的需求,以推动XAI的发展和贡献于其持续成功。
Oct, 2023
解释性人工智能(XAI)的道德框架基于道德义务和互惠概念,旨在构建复杂算法系统和人类利益相关者之间的联系,并以使AI决策过程中的对称性和机会得以维护为目标。
Nov, 2023
该论文提出了一种基于精细验证框架的解释人工智能,该框架不过分依赖于这些社会技术系统的任何一个方面,并承认它们固有的模块化结构:技术构建模块、面向用户的解释工件和社交通信协议。
Mar, 2024