机器学习的因果可解释性:问题、方法和评估
通过可解释的人工智能工具和符合可解释人工智能原则的模型简化,本研究探讨了透明度问题在公共政策评估中对因果机器学习的影响,并应用到一个案例研究中,展示了现有工具对于理解黑盒预测模型的不适用性,以及将模型简化以提高可解释性会导致误差的不可接受增加,最终得出需要新工具来正确理解因果机器学习模型及其拟合算法的结论。
Oct, 2023
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法 LIME 及其面临的主要挑战。
Jun, 2016
研究探讨了通过对模拟响应、验证建议响应、确定建议响应的正确性并观察其输入变化等三项特定任务,来解释可解释的 AI 的互动可能。结果表明,特定的正则化可以用于优化可解释性,而一些共同点和设计原则也可能存在于解释的系统之间。我们的结果表明,认知块比变量重复更影响表现,并且这些趋势在任务和领域中保持一致。
Jan, 2019
在高风险领域中,机器学习模型已经被广泛用于辅助决策,而开发可解释的模型的兴趣逐渐增加。然而,是否这些模型能实现预期的效果,我们缺乏实验研究来证明。本研究开展了一系列预先注册的实验,展示了具有不同要素的模型,以调查它们的可解释性。结果表明,模型越透明、特征越少,参与者越能成功地模拟模型的预测,但是参与者并没有更加倾向于紧密关注其预测,而拥有透明的模型却使参与者因信息过载难以检测和修正模型的重大错误。这些结果强调了开发可解释模型时实验测试的重要性。
Feb, 2018
最近,解释性已经引起了机器学习领域的关注,因为在关键决策或故障排除时至关重要。本文阐述了解释性的关系,即与机器学习中的重要概念(如可解释性,预测性能和机器学习模型)的关系,以澄清对解释性存在的一些误解。
Nov, 2023
本文旨在提供可解释机器学习的基本原则,解决常见误解,并识别了十个技术挑战领域,包括稀疏逻辑模型、神经网络中的监督和非监督可分离性、增强学习的解释性等。此次调查适用于对可解释机器学习感兴趣的统计学家和计算机科学家。
Mar, 2021