人工智能在协同工作中可解释性和可接受性要求
人工智能的迅猛发展需要开发者和设计师注重人和机器的合作。通过理解认知心理学的发现,确定了四个构成元素,即感知、语义、意图和用户与上下文,以设计有效的解释,如通过将文本和视觉、可能性和实例、意向交流融合,实现了计算食品卡路里的例子,并建议在解释生成和交流之间增加一个额外的步骤,以确定解释的效力。
Oct, 2022
通过系统文献综述研究 AI 解释的四个维度 - 格式、完备性、准确性和时效性,以及 XAI 效应的五个维度 - 信任、透明度、可理解性、可用性和公正性,并且针对未来研究议程提出了研究问题和可能的研究方向,从而开发了一个综合框架,并研究了其对用户行为的影响。
Nov, 2022
该论文提出了一个框架,结合了技术、法律和经济因素,以定义在特定情境下的 “适当” 的解释水平,包括观众、操作环境、系统可能造成的伤害级别和法律 / 监管框架等主要情境因素,并提出了与此相关的社会效益。同时,论文还探讨了可用的技术工具,选择全局和局部解释输出的正确水平,并强调了解释只有在总社会效益大于成本时才具有社会价值。
Mar, 2020
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
通过对鸟类识别应用程序的最终用户进行混合方法研究,我们发现参与者们希望获得实际有用的信息,以改善与人工智能的协作,尤其是需要参与者使用 XAI 解释以达到各种目的,包括校准信任、提高任务技能、改变他们的行为以提供更好的输入等
Oct, 2022
本文说明在 AI 经济和社会领域中,快速发展的 AI 技术在很多方面已经超越人类专家。但由于错误率、偏见、噪声干扰等因素,AI 系统的应用却面临诸多挑战。为应对这种问题,出现了很多政府和监管部门针对具有准确性和健壮性的可信赖、道德的 AI 技术的监管机制。其中,说明性的 AI 技术则被广泛应用。本文从几方面介绍了这种技术在高风险可信赖 AI 系统的全生命周期中的应用。
Dec, 2022
本文回顾了近期文献,提出了可解释人工智能系统的设计指南以及可解释人工智能领域的规范化贡献。该文章提出了一个框架,以指导选择可解释人工智能方法的类别,进而解释重要属性的相对重要性。同时也发现,尽管定量评价指标对于客观标准化评估很重要,但对于某些属性(如 “清晰度”)和解释类型(如 “基于实例的方法”)仍然缺乏。最终的结论是,可解释建模可以为可信的人工智能做出贡献,但还需要在实践中证明可解释性的好处,并可能需要采取补充措施,例如报告数据质量,进行广泛(外部)验证和监管等措施。
Jul, 2020
对用户信任、影响因素和测量方法进行的 23 个实证研究的综述确认了定义信任的多种方法和用户特征对 AI 启用系统中的信任产生的影响等主题,从而为未来技术和设计策略、研究和举措提供了洞察。
Apr, 2023
人工智能在自动驾驶的感知和规划任务中表现出优越性能,但不透明的人工智能系统加剧了自动驾驶的安全保障难题。为了缓解这一挑战,我们首次对透明解释性人工智能方法在安全可信自动驾驶领域进行了全面系统的文献综述。我们分析了自动驾驶中人工智能的要求,并针对数据、模型和机构三个关键方面提出了透明解释性人工智能的基本原则。在此基础上,我们提出了五个透明解释性人工智能对安全可信自动驾驶的关键贡献,包括可解释设计、可解释的代理模型、可解释的监控、辅助解释和可解释的验证。最后,我们提出了一个名为 SafeX 的模块化框架,将这些贡献集成起来,为用户提供解释并同时确保人工智能模型的安全性。
Feb, 2024