本研究从广阔的角度观察模型可解释性,超越了机器学习的范畴,涵盖了分布语义学和模糊逻辑等不同的人工智能领域。我们根据模型的性质和它们引入可解释性方面的方法进行分类,并分析每种方法如何影响最终用户。同时指出还需要解决的问题,以提供更以人为本的解释性解决方案。
Jul, 2019
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
人类和人工智能是否能共享概念并进行交流?《使人工智能变得可理解》展示了意义形而上学的哲学研究如何回答这些问题,Cappelen 和 Dever 利用哲学中的外在主义传统构建了人工智能和人类相互理解的模型,从而改进了哲学传统,给出了有关理论和实践的重要答案,为实现可解释的人工智能迈出了重要的第一步。
Jun, 2024
这篇论文探讨了可解释的人工智能技术和其评估方法之间的差距,介绍了使用简单的数学模型来评估不同模型表述的易理解程度,以及如何设置和执行相关用户研究的概念和实践框架。
Mar, 2023
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020
本文对可解释性人工智能的相关文献进行了系统回顾,发现了四个主题性讨论,旨在推动可解释性人工智能领域的研究进一步深入发展。
Dec, 2020
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
该论文探讨了人工智能的交互问题,提出了一种基于模型的 AI 规划方法,以实现人类与智能系统的有效沟通和协同解决问题的目标。
Sep, 2017
这篇论文概述了解释机器学习算法决策的不同方法,并将它们应用到医学研究中,以提高医生对这些算法的信任度。