这篇报告对数据驱动方法 - 特别是机器学习和模式识别模型进行了综述和总结,以便于业界从业者和数据科学家更好地理解 “可解释的人工智能” 的领域并应用正确的工具。
Sep, 2020
本文回顾了可解释的机器学习,探讨了在自然科学领域应用中的透明度、可解释性和解释性三个核心要素,并提供了结合应用领域的领域知识使用可解释的机器学习的最近科学作品的概述。
May, 2019
该研究探讨了解释在互动式机器学习系统中的作用,以帮助领域专家检测和解决潜在的数据问题,从而优化模型的效果;结果发现全局模型中心的解释不足以指导用户在数据配置过程中,而数据中心的解释可以提高对系统变化的理解,两种解释类型的混合体效果最佳。
Feb, 2024
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
该研究是对人工智能模型解释的广泛调查,发现解释决策和原因的不同方法和原因的异质性导致了个体解释框架。
Oct, 2022
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
Nov, 2018
本篇论文介绍了医学领域中解释性人工智能的研究,强调让人们能够透明地理解和信任 AI/ML 技术的重要性,主要关注于图像、* 组学数据和文本三个方面。
Dec, 2017
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。