机器学习的模型无关可解释性
在高风险领域中,机器学习模型已经被广泛用于辅助决策,而开发可解释的模型的兴趣逐渐增加。然而,是否这些模型能实现预期的效果,我们缺乏实验研究来证明。本研究开展了一系列预先注册的实验,展示了具有不同要素的模型,以调查它们的可解释性。结果表明,模型越透明、特征越少,参与者越能成功地模拟模型的预测,但是参与者并没有更加倾向于紧密关注其预测,而拥有透明的模型却使参与者因信息过载难以检测和修正模型的重大错误。这些结果强调了开发可解释模型时实验测试的重要性。
Feb, 2018
该研究论文概述了理解机器学习模型的需求,解释了分类理解方法并提供了在不同医疗保健领域实际应用机器学习可解释性的例子,强调开发算法解决高风险医疗问题的重要性。
Feb, 2020
机器学习研究领域近年来取得巨大进展,深度学习模型在各种任务上表现出色。然而,这些模型往往在可解释性方面存在不足,因为它们作为不透明的 “黑盒子” 运行,使其决策背后的原理被遮蔽。为了解决这一挑战,我们的研究团队提出了一个创新框架,旨在权衡模型性能和可解释性之间的折衷。我们的方法以对高维数据的模块化操作为核心,可以进行端到端处理同时保持可解释性。通过融合多样化的解释技术和模块化数据处理,我们的框架可以揭示复杂模型的决策过程,而不损害其性能。我们广泛测试了我们的框架,并验证了其在实现计算效率和可解释性之间取得协调平衡方面的卓越成效。我们的方法通过在各个领域的部署中提供前所未有的对复杂模型内部工作原理的洞察,促进信任、透明度和问责制,满足当代机器学习应用的关键需求。
Jan, 2024
最近,解释性已经引起了机器学习领域的关注,因为在关键决策或故障排除时至关重要。本文阐述了解释性的关系,即与机器学习中的重要概念(如可解释性,预测性能和机器学习模型)的关系,以澄清对解释性存在的一些误解。
Nov, 2023
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
Oct, 2022
本文探讨了监督机器学习模型的解释能力,发现解释能力的动机与方法存在多样性和不一致性,因此提出了透明度与后期解释等多种方法,并怀疑线性模型易于解释而深度神经网络不易解释这一流行观点。
Jun, 2016
在这项工作中,我们提出了一种名为 anchor-LIME(aLIME)的与模型无关的技术,该技术能够生成高精度、基于规则的解释,其覆盖边界非常清晰,并通过模拟实验比较了 aLIME 和线性 LIME,并从各种领域和任务的定性示例中展示了 aLIME 的灵活性。
Nov, 2016