AI规划器决策的解释方法探讨
本文通过在模拟搜救情景中测试算法,在考虑到自主系统行为的未解释性与人类理解之间的区别的情况下评估解释生成算法,研究人类与机器人间建立互信的过程以及这些算法特性被人类评价的程度。
Feb, 2018
本文研究了面向新手用户的非稳健智能决策支持系统的互动,介绍了一种新颖的基于子目标的解释类型,即补充传统智能决策支持系统输出的信息,以提高用户任务表现和系统的鲁棒性。研究表明,基于子目标的解释可实现更好的用户任务表现、提高用户区分优化和非优化智能决策支持推荐的能力、得到用户的喜爱,并在智能决策支持系统失灵的情况下实现更加鲁棒的用户表现。
Jan, 2022
通过文献调研和元分析,我们建议采用适当的信任作为衡量主观评价标准结果的标准,并提出了一个解释质量方面的模型,其中类似定义的标准被分组,并与三个识别出的质量方面相关联:模型、解释和用户。最后我们提出了一个包含四个常用标准(群)的模型,涵盖了解释质量的所有方面: 性能、适当的信任、解释满意度和忠实度。该模型可以作为比较评估的图表,以创建更具可推广性的解释质量研究。
Mar, 2022
本研究探讨了可解释性人工智能(XAI)中说明的特征和其效用评估,强调了说明的功能角色、用户知识状态以及生成说明所需的信息的要求,并定义了XAI领域的重要下一步:建立指导和基础系统生成说明效用的度量标准,以避免XAI可能带来的对系统的信任而没有建立其可靠性。
Jun, 2022
本研究介绍了四个新的可解释人工智能技术问题,这些问题围绕设计和评估算法,并呼吁建立基于人类需求的可解释人工智能技术开发研究范式,以保证人工智能在关键任务中的负责任使用。
Aug, 2022
本文研究机器解释符合人类交流规范、支持人类推理过程并满足人类对人工解释的需求的重要性,指出仅仅优化和评估机器解释的合理性(Explanation Plausibility)对于提高模型的可理解性、透明性与可信度是有害无益的,因此提出了一些可行的评估方法,并重点强调了可解释性特定的评估目标的重要性。
Mar, 2023
本文聚焦AI辅助决策,在AI解释人类决策过程中频繁失败的背景下,提出了一个简单的理论,即解释只有在允许决策者验证其正确性时才有用,我们讨论了更有效的AI决策解释方法和人工智能-人类决策的协作。
May, 2023
通过向用户提供自动偏见的解释,本研究试图提高用户的自主性,降低 AI 决策风险,并使用户避免 AI 失误,但用户对 AI 的不信任导致了此方法的普遍性问题。
Jun, 2024
本研究解决了单一解释器无法满足多样化用户需求的问题,提出了"多次解释"方法,结合多种解释器形成个性化的"解释策略"。iSee平台利用案例推理促进最佳实践,为设计用户提供工具,以适应最终用户的需求,研究结果表明iSee平台在不同应用间具有效果,并有潜力推动解释性人工智能最佳实践的采用。
Aug, 2024