研究使用背景知识使得可解释的人工智能更简洁易懂,并使用现有的规则归纳技术从数据集中提取背景信息来做出预测并报告使用的背景信息,帮助人类检查解释的正确性。
Jun, 2022
该论文提出了解释机器学习模型预测的方法,同时讨论了相关性和必要性问题,证明了多个机器学习分类器的成员和困难性,并针对不同分类器提出了具体算法。实验结果表明所提算法的可扩展性较好。
Oct, 2022
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
本论文提出了一种无约束解决方案,利用归纳推理计算任何机器学习模型的解释,验证了所提出方法的可伸缩性和计算出的解释的质量。
Nov, 2018
机器学习算法越来越被用于组织的决策中,特征解释引入因果模型的语义,导致决策者的先验偏见泄漏,并产生确认偏见和决策结果的差异,从而导致次优和有偏的决策结果。
该论文关注机器学习中可解释性问题,侧重于简化模型的构建及不同形式的解释与说明,并探讨了机器学习在处理该问题时的广义视角。
本文探讨在机器学习模型预测中计算解释的方法,特别是针对使用启发式方法的非解释性机器学习模型,研究表明这些方法不足以满足需求。同时,本文扩展了相关工作,以处理提升树模型。
Jul, 2019
本文旨在探讨人机交互中提供合理的解释是何等富有挑战性的,以及如何在生成自然语言解释时克服知识的多种抽象形式及推理。我们通过自动化新颖的数据收集方式构建了一种序列到序列的自然语言生成模型,并证明该方式相比其他方式能够更好地解释开放域现象。
Jun, 2019
基于机器学习和深度神经网络的研究,讨论了其对逼近复杂函数的有效性,但常常缺乏透明度和解释力这些局限性。文章强调归纳问题:过去的观察未必能够准确预测未来事件,这是机器学习模型在遇到新的未知数据时所面临的挑战。文章主张不仅要进行预测,还要提供良好的解释,这是当前模型常常难以提供的特性。它建议为了人工智能的进展,我们必须寻找能提供洞察和解释而不仅仅是预测的模型。
Jan, 2024
本文探讨了现有的 feature-highlighting explanations 模型中存在的主要问题,包括推荐的特征变化是否直接映射到现实世界、特征是否只与当前的决策相关以及隐藏模型的需求与有用解释之间的张力等。需要更多的理解和研究才能有效地实施这些技术。
Dec, 2019