人机系统可解释性
该论文提出,可从解释生成、选择、评估和呈现的人类认知偏见和社会期望中借鉴人类解释行为,以推进可解释的人工智能领域,并回顾了哲学、认知心理学、社会心理学等相关领域的研究成果。
Jun, 2017
本论文通过分析NIPS,ACL,COGSCI以及ICCV/ECCV论文标题的语料库来比较透明系统、可解释系统、理解系统和真正可以解释的系统之间的区别,并介绍了第四种概念:真正可解释的系统,其中自动推理是生成解释的关键步骤。
Oct, 2017
本文介绍一种可用于描述和评估可解释系统的分类法和一组描述符,该分类法包括五个关键维度:功能性、操作性、可用性、安全性和验证性。通过对机器学习的文献进行调研,提取作者们提出或隐含使用的标准和期望,在此基础上提出了五个关键维度,并将其制成可操作的解释事实表格形式,以便于快速掌握特定解释方法的能力和局限性。此分类法可指导新的解释方法的开发。
Dec, 2019
本文对可解释人工智能系统进行了历史概述,重点介绍了知识驱动的系统,在专家系统、认知助手、语义应用和机器学习领域的应用,提出了新的解释和可解释知识驱动系统的定义,以填补现有方法的不足并使解释更加用户和上下文关注。
Mar, 2020
本研究的目的是对可解释性(Explainable AI,XAI)领域的现状提供一个视角,并提供解释性和可解释性的新定义,以开始标准化这个研究领域。研究提供了可解释性文献的概述和现有方法的概述,最后提供了不同可解释性方法的初步分类法,为未来的研究打开了大门。
Oct, 2020
本研究探讨了可解释性人工智能(XAI)中说明的特征和其效用评估,强调了说明的功能角色、用户知识状态以及生成说明所需的信息的要求,并定义了XAI领域的重要下一步:建立指导和基础系统生成说明效用的度量标准,以避免XAI可能带来的对系统的信任而没有建立其可靠性。
Jun, 2022
本文利用Luhmann和Esposito的社会系统理论,探讨了可解释的AI在人工智能交互中需要面对的挑战以及应对之道,旨在通过系统论方法的应用,提供一个新的视角来理解可解释的人工智能的问题和限制。
Feb, 2023
本文通过对欧盟、美国和英国政策文件的调查,针对可解释性人工智能的技术和社会影响进行了主题和缺口分析。发现政策通常基于对解释的粗略观念和要求。最终提出了一组关于如何解释AI系统的建议,其中包括定义、可行性、可用性以及分配解释提供者的责任。
Apr, 2023